Hadoop重点难点:可靠性/Failover/Shuffle

2021-10-12 12:16:56 浏览数 (1)

你需要先看这个系列:

《Hadoop重点难点:HDFS读写/NN/2NN/DN

HDFS – 可靠性

HDFS 的可靠性主要有一下几点:

  • 冗余副本策略
  • 机架策略
  • 心跳机制
  • 安全模式
  • 效验和
  • 回收站
  • 元数据保护
  • 快照机制

1.冗余副本策略

  • 可以在 hdfs-site.xml 中设置复制因子指定副本数量
  • 所有数据块都可副本
  • DataNode 启动时,遍历本地文件系统,产生一份 HDFS 数据块和本地文件的对应关系列表 (blockreport) 汇报给 Namenode

2.机架策略

  • HDFS 的”机架感知”,通过节点之间发送一个数据包,来感应它们是否在同一个机架
  • 一般在本机架放一个副本,在其他机架再存放一个副本,这样可以防止机架失效时丢失数据,也可以提高带宽利用率

3.心跳机制

  • NameNode 周期性从 DataNode 接受心跳信息和块报告
  • NameNode 根据快报告验证元数据
  • 没有按时发送心跳的 DataNode 会被标记为宕机,不会再给他任何 I/O 请求
  • 如果 DataNode 失效造成副本数量下降,并且低于预先设定的值,NameNode 会检测出这些数据库,并在合适的时机从新复制
  • 引发重新复制的原因还包括数据副本本身损坏,磁盘错误,复制因子被增大等

4.安全模式

  • NameNode 启动时会先经过一个 “安全模式” 阶段
  • 安全模式阶段不会产生数据写
  • 在此阶段 NameNode 收集各个 DataNode 的报告, 当数据块达到最小副本数以上时,会被认为是”安全”的
  • 在一定比例(可设置) 的数据块被确定为”安全” 后 ,在过若干时间,安全模式结束
  • 当检测到副本数不足的数据块是,该块会被复制,直到达到最小副本数

5.checksum

  • 在文件创立时,每个数据块都产生checksum
  • checksum会作为单独一个隐藏文件保存在命名空间下
  • 客户端获取数据时可以检查checksum是否相同,从而发现数据块是否损坏
  • 如果正在读取的数据块损坏,则可以继续读取其他副本

6.回收站

  • 删除文件时,其实是放入回收站 /trash
  • 回收站里的文件是可以快速恢复的
  • 可以设置一个时间值,当回收站里文件的存放时间超过了这个值,就被彻底删除,并且释放占用的数据块

7.元数据保护

  • 映像文件和事物日志是 NameNode 的核心数据.可以配置为拥有多个副本
  • 副本会降低 NameNode 的处理速度,但增加安全性
  • NameNode 依然是单点,如果发生故障要手工切换
YARN – Failover

失败类型

  • 程序问题
  • 进程崩溃
  • 硬件问题

失败处理

  • 任务失败
  1. 运行时异常或者JVM退出都会报告给ApplicationMaster
  2. 通过心跳来检查挂住的任务(timeout),会检查多次(可配置)才判断该任务是否失效
  3. 一个作业的任务失败率超过配置,则认为该作业失败
  4. 失败的任务或作业都会有ApplicationMaster重新运行
  • ApplicationMaster失败
  1. ApplicationMaster定时发送心跳信号到ResourceManager,通常一旦ApplicationMaster失败,则认为失败,但也可以通过配置多次后才失败
  2. 一旦ApplicationMaster失败,ResourceManager会启动一个新的ApplicationMaster
  3. 新的ApplicationMaster负责恢复之前错误的ApplicationMaster的状态(yarn.app.mapreduce.am.job.recovery.enable=true),这一步是通过将应用运行状态保存到共享的存储上来实现的,ResourceManager不会负责任务状态的保存和恢复
  4. Client也会定时向ApplicationMaster查询进度和状态,一旦发现其失败,则向ResouceManager询问新的ApplicationMaster
  • NodeManager失败
  1. NodeManager定时发送心跳到ResourceManager,如果超过一段时间没有收到心跳消息,ResourceManager就会将其移除
  2. 任何运行在该NodeManager上的任务和ApplicationMaster都会在其他NodeManager上进行恢复
  3. 如果某个NodeManager失败的次数太多,ApplicationMaster会将其加入黑名单(ResourceManager没有),任务调度时不在其上运行任务
  • ResourceManager失败
  1. 通过checkpoint机制,定时将其状态保存到磁盘,然后失败的时候,重新运行
  2. 通过zookeeper同步状态和实现透明的HA
  3. 可以看出,一般的错误处理都是由当前模块的父模块进行监控(心跳)和恢复。而最顶端的模块则通过定时保存、同步状态和zookeeper来ֹ实现HA
Hadoop Shuffle

MapReduce – Shuffle

对Map的结果进行排序并传输到Reduce进行处理 Map的结果并不是直接存放到硬盘,而是利用缓存做一些预排序处理 Map会调用Combiner,压缩,按key进行分区、排序等,尽量减少结果的大小 每个Map完成后都会通知Task,然后Reduce就可以进行处理。

Map端

  • 当Map程序开始产生结果的时候,并不是直接写到文件的,而是利用缓存做一些排序方面的预处理操作
  • 每个Map任务都有一个循环内存缓冲区(默认100MB),当缓存的内容达到80%时,后台线程开始将内容写到文件,此时Map任务可以继续输出结果,但如果缓冲区满了,Map任务则需要等待
  • 写文件使用round-robin方式。在写入文件之前,先将数据按照Reduce进行分区。对于每一个分区,都会在内存中根据key进行排序,如果配置了Combiner,则排序后执行Combiner(Combine之后可以减少写入文件和传输的数据)
  • 每次结果达到缓冲区的阀值时,都会创建一个文件,在Map结束时,可能会产生大量的文件。在Map完成前,会将这些文件进行合并和排序。如果文件的数量超过3个,则合并后会再次运行Combiner(1、2个文件就没有必要了)
  • 如果配置了压缩,则最终写入的文件会先进行压缩,这样可以减少写入和传输的数据
  • 一旦Map完成,则通知任务管理器,此时Reduce就可以开始复制结果数据

Reduce端

  • Map的结果文件都存放到运行Map任务的机器的本地硬盘中
  • 如果Map的结果很少,则直接放到内存,否则写入文件中
  • 同时后台线程将这些文件进行合并和排序到一个更大的文件中(如果文件是压缩的,则需要先解压)
  • 当所有的Map结果都被复制和合并后,就会调用Reduce方法
  • Reduce结果会写入到HDFS中

调优

  • 一般的原则是给shuffle分配尽可能多的内存,但前提是要保证Map、Reduce任务有足够的内存
  • 对于Map,主要就是避免把文件写入磁盘,例如使用Combiner,增大io.sort.mb的值
  • 对于Reduce,主要是把Map的结果尽可能地保存到内存中,同样也是要避免把中间结果写入磁盘。默认情况下,所有的内存都是分配给Reduce方法的,如果Reduce方法不怎么消耗内存,可以mapred.inmem.merge.threshold设成0,mapred.job.reduce.input.buffer.percent设成1.0
  • 在任务监控中可通过Spilled records counter来监控写入磁盘的数,但这个值是包括map和reduce的
  • 对于IO方面,可以Map的结果可以使用压缩,同时增大buffer size(io.file.buffer.size,默认4kb)

0 人点赞