先说几句废话吧...
截至到目前,我们已经很熟悉Linux系统的日常操作了,Linux中最常见的操作就是通过Shell。当然有些版本,自带桌面UI,可以直接鼠标点击了。但是作为一名常年折腾代码的技术人,你好意思说自己不会用命令吗?所以,掌握shell是势在必行的。在 Hadoop中,shell也是最常见的操作方式之一了。废话到此为止,今天把hdfs的shell命令归纳总结一下。高手请忽略...
1.查看hadoop的所有命令
hadoop fs
2.启动hadoop集群
所有节点一次性启动:myhadoop.sh start
逐个几点启动:sbin/start-dfs.sh
sbin/start-yarn.sh
3.创建文件夹
hadoop fs -mkdir /mytest
访问hadoop9870的端口进行浏览,发现确实多出了一个mytest文件夹:
4.文件上传
4.1 -moveFromLocal 从本地剪切粘贴到HDFS。
hadoop fs -moveFromLocal ./mytest1.txt /mytest
通过浏览器查看,文件mytest1.txt被移到mytest文件夹下面了。
4.2 -copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
vim mytest2.txt
hadoop fs -copyFromLocal /mytest
注意一点,这次是拷贝,所以本地路径尚有一份文件。
查看浏览器,mytest文件夹中多了一个文件mytest2.txt
4.3 -put
vim mytest3.txt
hadoop fs -put mytest3.txt /mytest
再次查看浏览器中mytest文件夹,有多出了一个文件mytest3.txt
5.显示目录信息
ls
cat
除此之外,还有 -text,也可以读取文件内容。
6. -chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限。这里不一一赘述了。
【小结】
任何系统或者工具的命令,我们都不可能一一记住,记住一些常用的命令就够了。其余不常见的命令,在实际使用时查阅资料即可。作为工程师,无论开发还是运维,都是应该把使用工具去解决问题作为最终的目的。加油,继续前行!