什么是MapReduce(入门篇)

2021-01-22 16:19:01 浏览数 (1)

在HDFS系列完结之后,小伙伴们期待的MapReduce系列已经在向大家挥手了。本篇博客,小菌将为大家带来MapReduce的入门介绍!

在正式开始之前,让我们通过一张图片回顾一下Hadoop的组成部分,以及每部分的作用!

代码语言:javascript复制
归纳:
Hadoop组成
 
    Hadoop  HDFS:一个高可靠、高吞吐量的分布式文件系统,对海量数据的存储。
 	Hadoop  MapReduce:一个分布式的资源调度和离线并行计算框架。
 	Hadoop  Yarn:基于HDFS,用于作业调度和集群资源管理的框架。

接下来我们正式进入到MapReduce的讲解中

分布式并行计算框架MapReduce

什么是计算框架?

是指实现某项任务或某项工作从开始到结束的计算过程或流的结构。

MapReduce具体的计算框架分布如下所示:

什么是并行计算框架?

一个大的任务拆分成多个小任务,将多个小任务分发到多个节点上。每个节点同时执行计算。

Hadoop为什么比传统技术方案快

这个问题小菌在介绍大数据的时候就已经谈到过。大致分为下面几个步骤!

  1. 分布式存储
  2. 分布式并行计算
  3. 节点横向拓展
  4. 移动程序到数据端
  5. 多个数据副本

MapReduce核心思想

分而治之,先分后和:将一个大的、复杂的工作或任务,拆分成多个小的任务,并行处理,最终进行合并。

MapReduce由Map和Reduce组成 Map: 将数据进行拆分,即把复杂的任务分解为若干个“简单的任务”来并行处理。可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。

Reduce:对数据进行汇总,即对map阶段的结果进行全局汇总。

Hadoop -MapReduce设计构思

MapReduce是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在Hadoop集群上。 既然是做计算的框架,那么表现形式就是有个输入(input),MapReduce操作这个输入(input),通过本身定义好的计算模型,得到一个输出(output)。 Hadoop MapReduce构思体现在如下的三个方面:

如何应对大数据处理:分而治之

对相互间不具有计算依赖关系的大数据,实现并行最自然的办法就是采取分而治之的策略。并行计算的第一个重要问题是如何划分计算任务或者计算数据以便对划分的子任务或数据块同时进行计算。不可分拆的计算任务或相互间有依赖关系的数据无法进行并行计算!

构建抽象模型:Map和Reduce

MapReduce借鉴了函数式语言中的思想,用Map和Reduce两个函数提供了高层的并行编程抽象模型。 Map: 对一组数据元素进行某种重复式的处理; Reduce: 对Map的中间结果进行某种进一步的结果整理。 MapReduce中定义了如下的Map和Reduce两个抽象的编程接口,由用户去编程实现: map: [k1,v1] → [(k2,v2)] reduce: [k2, {v2,…}] → [k3, v3]

Map和Reduce为程序员提供了一个清晰的操作接口抽象描述。通过以上两个编程接口,大家可以看出MapReduce处理的数据类型是<key,value>键值对。

统一构架,隐藏系统层细节

如何提供统一的计算框架,如果没有统一封装底层细节,那么程序员则需要考虑诸如数据存储、划分、分发、结果收集、错误恢复等诸多细节;为此,MapReduce设计并提供了统一的计算框架,为程序员隐藏了绝大多数系统层面的处理细节。 MapReduce最大的亮点在于通过抽象模型和计算框架把需要做什么(what need to do)与具体怎么做(how to do)分开了,为程序员提供一个抽象和高层的编程接口和框架。程序员仅需要关心其应用层的具体计算问题,仅需编写少量的处理应用本身计算问题的程序代码。如何具体完成这个并行计算任务所相关的诸多系统层细节被隐藏起来,交给计算框架去处理:从分布代码的执行,到大到数千小到单个节点集群的自动调度使用。 本次的分享就到这里了,受益的小伙伴们不要忘了点赞加关注哟(^U^)ノ~YO,下一期小菌将为大家带来MapReduce的初体验,敬请期待!

0 人点赞