首页 > 代码库 > Hadoop常用命令
Hadoop常用命令
1、查看Hadoop HDFS支持的所有命令
hdfs dfs
2、查看指定目录下内容
hdfs dfs –ls [文件目录]
eg:hdfs dfs –ls /user/hive
3、循环列出目录、子目录及文件信息
hdfs dfs –lsr [文件目录]
eg:hdfs dfs –lsr /user/hive
4、查看某个已存在文件
hdfs dfs –cat [file_path]
eg:hdfs dfs -cat /user/hive/data.txt
5、查看最后1KB的内容
hdfs dfs –tail [file_path]
eg:hdfs dfs –tail /user/hive/test.txt
6、将本地文件存储至hadoop
hdfs dfs –put [本地地址] [hadoop目录]
eg:hdfs dfs –put /home/tmp/file.txt /user/tmp
7、将hadoop上某个文件down至本地已有目录下
hdfs dfs -get [文件目录] [本地目录]
eg:hdfs dfs –get /user/tmp/ok.txt /home/tmp
8、删除hadoop上指定文件
hdfs dfs –rm [-r] [-f] [文件地址]
eg:hdfs dfs –rm /user/tmp/ok.txt
9、删除hadoop上指定文件夹(包含子目录等)
hdfs dfs –rm [-r] [-f] [目录地址]
eg:hdfs dfs –rmr /user/tmp
10、在hadoop指定目录内创建新目录
hdfs dfs –mkdir [Hadoop目录]
eg:hdfs dfs –mkdir /user/tmp
11、在hadoop指定目录下新建一个空文件
使用touchz命令:
hdfs dfs –touchz [file_path]
eg:hdfs dfs -touchz /user/new.txt
12、将hadoop上某个文件重命名
使用mv命令:
hdfs dfs –mv [file_path] [new_file_path]
eg:hdfs dfs –mv /user/test.txt /user/ok.txt (将test.txt重命名为ok.txt)
13、将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hdfs dfs –getmerge [Hadoop目录] [本地目录]
eg:hdfs dfs –getmerge /user /home/t
14、将正在运行的hadoop作业kill掉
hdfs job –kill [job-id]
15、hdfs dfs –copyFromLocal test.txt /user/sunlightcs/test.txt
从本地文件系统复制文件到HDFS文件系统,等同于put命令
16、hdfs dfs –copyToLocal /user/sunlightcs/test.txt test.txt
从HDFS文件系统复制文件到本地文件系统,等同于get命令
17、hdfs dfs –chgrp [-R] /user/sunlightcs
修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样
18、hdfs dfs –chown [-R] /user/sunlightcs
修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行
19、hdfs dfs –chmod [-R] MODE /user/sunlightcs
修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行
20、hdfs dfs –count [-q] PATH
查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名
21、hdfs dfs –cp SRC [SRC …] DST
将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录
22、hdfs dfs –du PATH
显示该目录中每个文件或目录的大小
23、hdfs dfs –dus PATH
类似于du,PATH为目录时,会显示该目录的总大小
24、hdfs dfs –expunge
清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
25、hdfs dfs –getmerge SRC [SRC …] LOCALDST [addnl]
获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符
26、hdfs dfs –touchz PATH
创建长度为0的空文件
27、hdfs dfs –test –[ezd] PATH
对PATH进行如下类型的检查:
-e PATH是否存在,如果PATH存在,返回0,否则返回1
-z 文件是否为空,如果长度为0,返回0,否则返回1
-d 是否为目录,如果PATH为目录,返回0,否则返回1
28、hdfs dfs –text PATH
显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩
29、hdfs dfs –help ls
查看某个[ls]命令的帮助文档
Hadoop常用命令