大数据_Hadoop(2)-Hadoop常用命令,
1.查看目录下内容
hadoop fs –ls /
hadoop fs -ls /da
注:可正则匹配
2.将本地文件夹上传至HDFS
hadoop fs -put ~/test/data.txt /
3.HDFS上创建目录
hadoop fs -mkdir /data
4.创建空文件
hadoop fs -touchz /data/data1.txt
5.浏览文件
hadoop fs -cat /data/data1.txt
6.文件重命名
hadoop fs -mv /data/data1.txt /data/data2.txt
7.将HDFS上文件拷贝至本地
hadoop fs -get /data/data2.txt ~
8.删除文件
hadoop fs -rm /data/data2.txt
9.删除文件夹
hadoop fs -rmr /data
10.将HDFS指定目录打包并down至本地
hadoop dfs –getmerge /user /home/t
11.将正在运行的Hadoop任务杀掉
hadoop job –kill [job-id]
12.复制文件
hadoop fs -cp /data.txt /data1.txt
13.HDFS基本信息统计
hadoop dfsadmin -report
14.离开/进入安全模式
hadoop dfsadmin -safemode leave
hadoop dfsadmin -safemode enter
15.启动所有进程
start-all.sh
16.启动HDFS/YARN
start-dfs.sh
start-yarn.sh
17.HDFS文件块重新均匀分布
start-balancer.sh