HDFS 基本概念及常用操作 学习笔记

2021-06-16 17:15:11 浏览数 (1)

目录

      • 基本概念
      • 写文件操作
      • 读文件操作
      • 可靠性
      • 常用命令
      • Ref

基本概念

Hadoop 附带了一个名为 HDFS(Hadoop Distributed File System, Hadoop分布式文件系统)的分布式文件系统,基于 Hadoop 的应用程序使用 HDFS 。HDFS 是专为存储超大数据文件,运行在集群的商品硬件上。它是容错的,可伸缩的,并且非常易于扩展。

HDFS集群主要由 NameNode 管理文件系统 Metadata 和 DataNodes 存储的实际数据。

  • NameNode: 可以被认为是系统的主站。它维护所有系统中存在的文件和目录的文件系统树和元数据。其中两个文件:“命名空间映像”和“编辑日志”是用来存储元数据信息。
    1. 存储文件的metadata,运行时所有数据都保存到内存,整个HDFS可存储的文件数受限于NameNode的内存大小
    2. 一个Block在NameNode中对应一条记录(一般一个block占用150字节),如果是大量的小文件,会消耗大量内存。同时maptask的数量是由splits来决定的,所以用MapReduce处理大量的小文件时,就会产生过多的map task,线程管理开销将会增加作业时间。处理大量小文件的速度远远小于处理同等大小的大文件的速度。因此Hadoop建议存储大文件
    3. 数据会定时保存到本地磁盘,但不保存block的位置信息,而是由DataNode注册时上报和运行时维护(NameNode中与DataNode相关的信息并不保存到NameNode的文件系统中,而是NameNode每次重启后,动态重建)
    4. NameNode失效则整个HDFS都失效了,所以要保证NameNode的可用性
  • DataNode:作为从机,每台机器位于一个集群中,并提供实际的存储. 它负责为客户读写请求服务。
    1. 保存具体的block数据
    2. 负责数据的读写操作和复制操作
    3. DataNode启动时会向NameNode报告当前存储的数据块信息,后续也会定时报告修改信息
    4. DataNode之间会进行通信,复制数据块,保证数据的冗余性
  • Secondary NameNode:定时与NameNode进行同步(定期合并文件系统镜像和编辑日志,然后把合并后的传给NameNode,替换其镜像,并清空编辑日志,类似于CheckPoint机制),但NameNode失效后仍需要手工将其设置成主机

写文件操作

Rack aware(机架感知)

通过配置文件指定机架名和DNS的对应关系

假设复制参数是3,在写入文件时,会在本地的机架保存一份数据,然后在另外一个机架内保存两份数据(同机架内的传输速度快,从而提高性能)

整个HDFS的集群,最好是负载平衡的,这样才能尽量利用集群的优势

读文件操作

  1. 客户端向NameNode发送读取请求
  2. NameNode返回文件的所有block和这些block所在的DataNodes(包括复制节点)
  3. 客户端直接从DataNode中读取数据,如果该DataNode读取失败(DataNode失效或校验码不对),则从复制节点中读取(如果读取的数据就在本机,则直接读取,否则通过网络读取)

可靠性

  1. DataNode可以失效 DataNode会定时发送心跳到NameNode。如果在一段时间内NameNode没有收到DataNode的心跳消息,则认为其失效。此时NameNode就会将该节点的数据(从该节点的复制节点中获取)复制到另外的DataNode中
  2. 数据可以毁坏 无论是写入时还是硬盘本身的问题,只要数据有问题(读取时通过校验码来检测),都可以通过其他的复制节点读取,同时还会再复制一份到健康的节点中
  3. NameNode不可靠

常用命令

  1. 从本地文件系统复制文件到 HDFS
代码语言:javascript复制
@ubuntu:~$ $HADOOP_HOME/bin/hdfs dfs -copyFromLocal temp.txt /

此命令将文件从本地文件系统拷贝 temp.txt 文件到 HDFS。

  1. 我们可以通过以下命令列出一个目录下存在的文件 -ls
代码语言:javascript复制
@ubuntu:~$ $HADOOP_HOME/bin/hdfs dfs -ls /
  1. 以下命令将文件从 HDFS 拷贝到本地文件系统
代码语言:javascript复制
@ubuntu:~$ $HADOOP_HOME/bin/hdfs dfs -copyToLocal /temp.txt
  1. 以下命令用来创建新的目录
代码语言:javascript复制
@ubuntu:~$ $HADOOP_HOME/bin/hdfs dfs -mkdir /mydirectory
  1. 检查文件的完整性: fsck

Ref

  1. https://pennywong.gitbooks.io/hadoop-notebook/content/hdfs/introduction.html
  2. https://www.yiibai.com/hadoop/hdfs_beginners_guide.html
  3. GFS论文
  4. Hadoop权威指南

0 人点赞