hadoop fsck /user/hadoop/filename -files -blocks -locations -racks
-files 文件分块信息,
-blocks在带-files参数后才显示block信息
-locations 在带-blocks参数后才显示block块所在datanode的具体IP位置,
-racks 在带-files参数后显示机架位置
注意:此命令只能在namenode里输入,在datanode里输入会报错的
一、常用的hadoop命令1、hadoop的fs命令
#查看hadoop所有的fs命令
1
hadoop fs
#上传文件(put与copyFromLocal都是上传命令)
1
2
hadoop fs -put jdk-7u55-linux-i586.tar.gz hdfs://hucc01:9000/jdk
hadoop fs -copyFromLocal jdk-7u55-linux-i586.tar.gz hdfs://hucc01:9000/jdk
#下载命令(get与copyToLocal都是下载命令)
1
2
hadoop fs -get hdfs://hucc01:9000/jdk jdk1.7
hadoop fs -copyToLocal hdfs://hucc01:9000/jdk jdk1.7
#将本地一个或者多个文件追加到hdfs文件中(appendToFile)
1
hadoop fs -appendToFile install.log /words
#查询hdfs的所有文件(ls)
1
hadoop fs -ls /
#帮助命令(help)
1
hadoop fs -help fs
#查看hdfs文件的内容(cat和text)
1
2
hadoop fs -cat /words
hadoop fs -text /words
#删除hdfs文件(rm)
1
hadoop fs -rm -r /words
#统计hdfs文件和文件夹的数量(count)
1
hadoop fs -count -r /
#合并hdfs某个文件夹的文件,并且下载到本地(getmerge)
1
hadoop fs -getmerge / merge
#将本地文件剪切到hdfs,相当于对本地文件上传后再删除(moveFormLocal)
1
hadoop fs -moveFromLocal words /
#查看当前文件系统的使用状态(df)
1
hadoop fs -df
二、常用的hdfs命令(这个用的比较多)
用法跟hadoop命令一样,推荐2.0之后使用hdfs命令
1
hdfs dfs
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)