【大数据系列】之Hadoop Shell常用命令
程序员文章站
2022-04-30 19:50:00
...
Hadoop Shell常用命令
1.创建文件夹
hdfs dfs -mkdir /test
2.创建文件
hdfs dfs -touchz /test/file.text
3.查看目录下的文件
hdfs dfs -ls /test
'迭代查看该目录下的所有文件与目录'
hdfs dfs -ls -R /test
4.文件的移动、复制
"移动"
hdfs dfs -mv /test/file.txt /file2.txt
"复制"
hdfs dfs -cp /file2.txt /test/file.txt
5.文件的上传与下载
"在/data目录下创建data.txt文件,并写入hello world"
cd /data
touch data.txt
echo "hello world" >> data.txt
"将data.txt上传到hdfs的/test下"
hdfs dfs -put data.txt /test
"将hdfs的/test/data.txt下载到/apps下"
hdfs dfs -get /test/data.txt /apps
6.查看文件内容
//查看hdfs上的/test/data.txt文件内容
"方法一:cat"
hdfs dfs -cat /test/data.txt
"方法二:tail"
hdfs dfs -tail /test/data.txt
"方法三:text"
hdfs dfs -text /test/data.txt
7.查看文件大小
hdfs dfs -du /test
8.文件的stat查看方法
//stat方法可以返回指定路径的统计信息,有多个参数可选。
hdfs dfs -stat /test
hdfs dfs -stat %n /test
参数 | 返回的信息 |
---|---|
%b | 打印文件大小 |
%n | 打印文件名 |
%o | 打印block size |
%r | 打印备份数 |
%y | 打印日期 |
%Y | 打印微秒数 |
9.文件权限的修改
'修改文件拥有者'
hdfs dfs -chown root /test/data.txt
"修改文件权限"
hdfs dfs -chmod 777 /test/data.txt
10.文件与文件夹的删除
'删除文件'
hdfs dfs -rm /test/data.txt
'删除除文件夹,只需迭代删除就可以了'
hdfs dfs -rm -R /test
'清空回收站'
hdfs dfs -expunge
11.Hadoop的安全模式
'进入安全模式'
hdfs dfsadmin -safemode enter
'退出安全模式'
hdfs dfsadmin -safemode leave
下一篇: springboot快速集成dubbo
推荐阅读
-
大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法
-
大数据系列博客之 --- 深入简出 Shell 脚本语言(基础篇)
-
大数据系列博客之 --- 深入简出 Shell 脚本语言(提升篇)
-
大数据系列博客之 --- 深入简出 Shell 脚本语言(高级篇)
-
带你从零学大数据系列之Java篇---第七章:面向对象三大特性
-
大数据调错系列之:自己总结的myeclipse连接hadoop会出现的问题
-
大数据之Hadoop学习(六)利用Shell命令对HBase数据库基本操作
-
【大数据系列】之Hadoop Shell常用命令
-
大数据之(3)Hadoop环境MapReduce程序验证及hdfs常用命令
-
大数据系列博客之 --- 深入简出 Shell 脚本语言(提升篇)