HDFS的操作方式之一------Shell

2022-06-08 23:05:25 浏览数 (1)

先说几句废话吧...

截至到目前,我们已经很熟悉Linux系统的日常操作了,Linux中最常见的操作就是通过Shell。当然有些版本,自带桌面UI,可以直接鼠标点击了。但是作为一名常年折腾代码的技术人,你好意思说自己不会用命令吗?所以,掌握shell是势在必行的。在 Hadoop中,shell也是最常见的操作方式之一了。废话到此为止,今天把hdfs的shell命令归纳总结一下。高手请忽略...

1.查看hadoop的所有命令

hadoop fs

查看hadoop所有命令查看hadoop所有命令

2.启动hadoop集群

所有节点一次性启动:myhadoop.sh start

逐个几点启动:sbin/start-dfs.sh

sbin/start-yarn.sh

群起集群群起集群

3.创建文件夹

hadoop fs -mkdir /mytest

访问hadoop9870的端口进行浏览,发现确实多出了一个mytest文件夹:

创建的文件夹mytest创建的文件夹mytest

4.文件上传

4.1 -moveFromLocal 从本地剪切粘贴到HDFS。

hadoop fs -moveFromLocal ./mytest1.txt /mytest

通过浏览器查看,文件mytest1.txt被移到mytest文件夹下面了。

moveFromLocalmoveFromLocal

4.2 -copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去

vim mytest2.txt

hadoop fs -copyFromLocal /mytest

注意一点,这次是拷贝,所以本地路径尚有一份文件。

copyFromLocalcopyFromLocal

查看浏览器,mytest文件夹中多了一个文件mytest2.txt

copyFromLocal的结果copyFromLocal的结果

4.3 -put

vim mytest3.txt

hadoop fs -put mytest3.txt /mytest

再次查看浏览器中mytest文件夹,有多出了一个文件mytest3.txt

查看mytest文件夹查看mytest文件夹

5.显示目录信息

ls

cat

ls查看结果ls查看结果
-cat查看文件内容-cat查看文件内容

除此之外,还有 -text,也可以读取文件内容。

6. -chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限。这里不一一赘述了。

【小结】

任何系统或者工具的命令,我们都不可能一一记住,记住一些常用的命令就够了。其余不常见的命令,在实际使用时查阅资料即可。作为工程师,无论开发还是运维,都是应该把使用工具去解决问题作为最终的目的。加油,继续前行!

0 人点赞