欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

HDFS JAVA API操作

程序员文章站 2024-03-23 08:19:07
...

一、 读文件
操作步骤:
1.连接HDFS系统

Configuration configuration = new Configuration();
configuration.set("fs.defaultFS","hdfs://hadoop.skedu.com:9000");

2.获得文件系统

FileSystem fileSystem = FileSystem.get(configuration);

3.指定文件路径对象

String filePath = "/user/root/mapreduce/wordcount/input/my.input"
Path readPath = new Path(filePath);

4.获得输入流对象

//open()方法为打开文件流
FSDataInputStream inputStream = fileSystem.open(readPath);

5.输出文件信息

try{
   IOUtils.copyBytes(inputStream,System.out,4096,false);
}catch (Exception e){
   e.printStackTrace();
}finally {
   IOUtils.closeStream(inputStream);
}

HDFS JAVA API操作

结果如下:
HDFS JAVA API操作


二、 写文件
在进行写操作的时候,涉及到写权限Hadoop的HDFS会进行安全检测,为了避免 没有写权限而失败,我们暂时将它关闭。
配置 etc/hadoop/hdfs-site.xml文件:

    <property>
        <name>dfs.permissions</name>
        <value>false</value>
     </property>

操作步骤:
1.连接HDFS系统

Configuration configuration = new Configuration();
configuration.set("fs.defaultFS","hdfs://hadoop.skedu.com:9000");

2.获得文件系统对象

FileSystem fileSystem = FileSystem.get(configuration);

3.准备本地文件

String localFilePath =
HdfsDemo.class.getClassLoader().getResource("my.log").getPath();
FileInputStream inputStream = new FileInputStream(new File(localFilePath));

4.准备Put文件路径

String hdfsDirPath = "/user/root/mapreduce/wordcount/wcinput/my.log";
Path path = new Path(hdfsDirPath);

5.获得输入流对象

FSDataOutputStream outputStream = fileSystem.create(path);

6.put写入

try{
   IOUtils.copyBytes(inputStream,outputStream,4096,false);
}catch (Exception e){
   e.printStackTrace();
}finally {
   IOUtils.closeStream(inputStream);
   IOUtils.closeStream(outputStream);
}