代码拉取完成,页面将自动刷新
package com;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.URI;
import java.util.ArrayList;
import java.util.List;
public class ReadFileUtil {
// 从HDFS中读取文件内容,并将每行的前两个逗号分隔的字段添加到列表中。
public static List<String> ReadFromHDFS(String file) throws IOException {
//System.setProperty("hadoop.home.dir", "H:\\文件\\hadoop\\hadoop-2.6.4");
List<String> list = new ArrayList();
int i = 0;
Configuration conf = new Configuration();
StringBuffer buffer = new StringBuffer();
FSDataInputStream fsr = null;
BufferedReader bufferedReader = null;
String lineTxt = null;
try {
FileSystem fs = FileSystem.get(URI.create(file), conf);
fsr = fs.open(new Path(file));
bufferedReader = new BufferedReader(new InputStreamReader(fsr));
while ((lineTxt = bufferedReader.readLine()) != null) {
// 假设每行数据都被双引号包围,这里去除了首尾的双引号
// 注意:这里假设每行数据都至少有两个逗号分隔的字段
lineTxt=lineTxt.substring(1,lineTxt.length()-1);
//System.out.println(lineTxt);
String[] arg = lineTxt.split(",");
list.add(arg[0]);
list.add(arg[1]);
}
} catch (Exception e) {
e.printStackTrace();
} finally {
if (bufferedReader != null) {
try {
bufferedReader.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
return list;
}
// 主函数,用于测试ReadFromHDFS方法
public static void main(String[] args) throws IOException {
List<String> ll = new ReadFileUtil().ReadFromHDFS("hdfs://master:9000/out/view1/part-00000");
for (int i = 0; i < ll.size(); i++) {
System.out.println(ll.get(i));
}
}
}
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。