1、 什么是Mapreduce
   Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;
  Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,
  并发运行在一个hadoop集群上;

2、Mapreduce框架结构及核心运行机制
  2.1、一个完整的mapreduce程序在分布式运行时有三类实例进程:
    1、MRAppMaster:负责整个程序的过程调度及状态协调
    2、mapTask:负责map阶段的整个数据处理流程
    3、ReduceTask:负责reduce阶段的整个数据处理流程

  2.2、MR程序运行流程
    流程解析:
    1、一个mr程序启动的时候,最先启动的是MRAppMaster,MRAppMaster启动之后根据本次job的描述信息计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程
    2、maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:
      a).利用客户指定的inputformat来获取RecordReader读取数据,形成输出kv对
      b).将输出的kv对传递给定义的map()方法,做逻辑运算,并将map()方法输出的kv对收集到缓存
      c).将缓存中的kv对按照k分区排序之后不断溢出写到磁盘文件
    3、MrAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)
    4、Reducetask进程启动之后,根据MrAppMaster告知的待处理数据所在的位置,从若干台maptask运行所在机器上获取若干的maptask输出结果文件,并在本地重新进行归并排序,然后按照相同的key的kv为一组调用客户定义的reduce()方法进行逻辑运算,并收集运算的输出结果kv,然后调用客户指定的outputformat将结果数据输出到外部存储

  2.3、MapTask并行度决定机制
    一个job的map阶段并行度由客户端在提交job时决定
    而客户端对map阶段并行度的规划的基本逻辑为:
    将待处理数据执行逻辑切片(即按照一个特定切片大小,将待处理数据划分成逻辑上的多个split),
    然后每一个split分配一个mapTask并行实例处理

  2.4、FileInputFormat切片机制
    由FileInputFormat实现类的getSplits()方法
    FileInputFormat中默认的切片机制:
    a) 简单地按照文件的内容长度进行切片
    b) 切片大小,默认等于block大小
    c) 切片时不考虑数据集整体,而是逐个针对每一个文件单独切片

    FileInputFormat中切片的大小的参数配置
    通过分析源码,在FileInputFormat中,计算切片大小的逻辑:
    Math.max(minSize, Math.min(maxSize, blockSize)); 切片主要由这几个值来运算决定
    默认情况下,切片大小=blocksize

    选择并发数的影响因素:
    1、运算节点的硬件配置
    2、运算任务的类型:CPU密集型还是IO密集型
    3、运算任务的数据量

  2.5、map并行度的经验之谈
    1、如果job的每个map或者 reduce task的运行时间都只有30-40秒钟,那么就减少该job的map或者reduce数
    2、如果input的文件非常的大,比如1TB,可以考虑将hdfs上的每个block size设大,比如设成256MB或者512MB

  2.6、ReduceTask并行度的决定
    reducetask的并行度同样影响整个job的执行并发度和执行效率,但与maptask的并发数由切片数决定不同,
    Reducetask数量的决定是可以直接手动设置:
    //默认值是1,手动设置为4
    job.setNumReduceTasks(4);
    如果数据分布不均匀,就有可能在reduce阶段产生数据倾斜
    注意: reducetask数量并不是任意设置,还要考虑业务逻辑需求,有些情况下,需要计算全局汇总结果,
    就只能有1个reducetask
    尽量不要运行太多的reduce task。对大多数job来说,最好rduce的个数最多和集群中的reduce持平,
    或者比集群的 reduce slots小。这个对于小集群而言,尤其重要。

3、MAPREDUCE中的Combiner
  (1)combiner是MR程序中Mapper和Reducer之外的一种组件
  (2)combiner组件的父类就是Reducer
  (3)combiner和reducer的区别在于运行的位置:
    Combiner是在每一个maptask所在的节点运行
    Reducer是接收全局所有Mapper的输出结果;
  (4)combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量
    具体实现步骤:
      1、 自定义一个combiner继承Reducer,重写reduce方法
      2、 在job中设置: job.setCombinerClass(CustomCombiner.class)
  (5) combiner能够应用的前提是不能影响最终的业务逻辑而且,combiner的输出kv应该跟reducer的输入kv类型要对应起来

  Combiner的使用要非常谨慎
    因为combiner在mapreduce过程中可能调用也肯能不调用,可能调一次也可能调多次
    所以:combiner使用的原则是:有或没有都不能影响业务逻辑

4、mapreduce原理篇
  4.1、mapreduce的shuffle机制
    1).mapreduce中,map阶段处理的数据如何传递给reduce阶段,是mapreduce框架中最关键的一个流程,这个流程就叫shuffle;
    2).shuffle: 洗牌、发牌——(核心机制:数据分区,排序,缓存);
    3).具体来说:就是将maptask输出的处理结果数据,分发给reducetask,并在分发的过程中,对数据按key进行了分区和排序;

  4.2、主要流程
    shuffle是MR处理流程中的一个过程,它的每一个处理步骤是分散在各个map task和reduce task节点上完成的,
    整体来看,分为3个操作:
      1、分区partition
      2、Sort根据key排序
      3、Combiner进行局部value的合并

  4.3、详细流程
    1、maptask收集我们的map()方法输出的kv对,放到内存缓冲区中
    2、从内存缓冲区不断溢出到本地磁盘文件,可能会溢出多个文件
    3、多个溢出文件会被合并成大的溢出文件
    4、在溢出的过程中,及合并的过程中,都要调用partitioner进行分组和针对key进行排序
    5、reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据
    6、reducetask会取到同一个分区来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
    7、合并成大文件之后,shuffle的过程就结束了,后面进入reducetask的逻辑运算过程中
    (从文件中读取一个一个的键值对group,调用用户自定义的reduce方法)

    shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上来讲,缓冲区越大,磁盘的io次数越少
    执行越快,缓冲区的大小可以通过参数调整,参数:io.sort.mb 默认100M

5、Mapreduce中的序列化
  5.1、hadoop自己开发了一套序列化机制(Writable),精简,高效

  5.2、自定义对象实现MR中的序列化接口
    如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,
    因为mapreduce框中的shuffle过程一定会对key进行排序,此时,自定义的bean实现的接口应该是:
    public class FlowBean implements WritableComparable<FlowBean>

  5.3、Mapreduce与Yarn
    1).Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,
      而mapreduce等运算程序则相当于运行于操作系统之上的应用程序

    2).Yarn的重要概念
      1、 yarn并不清楚用户提交的程序的运行机制
      2、 yarn只提供运算资源的调度(用户程序向yarn申请资源,yarn就负责分配资源)
      3、 yarn中的主管角色叫ResourceManager
      4、 yarn中具体提供运算资源的角色叫NodeManager
      5、 这样一来,yarn其实就与运行的用户程序完全解耦,就意味着yarn上可以运行各种类型的分布式运算程序(mapreduce只是其中的一种),比如mapreduce、storm程序,spark程序,tez ……

      6、 所以,spark、storm等运算框架都可以整合在yarn上运行,只要他们各自的框架中有符合yarn规范的资源请求机制即可
     
 7、 Yarn就成为一个通用的资源调度平台,从此,企业中以前存在的各种运算集群都可以整合在一个物理集群上,提高资源利用率,方便数据共享

Hadoop之Mapreduce详解的更多相关文章

  1. hadoop之mapreduce详解(进阶篇)

    上篇文章hadoop之mapreduce详解(基础篇)我们了解了mapreduce的执行过程和shuffle过程,本篇文章主要从mapreduce的组件和输入输出方面进行阐述. 一.mapreduce ...

  2. hadoop之mapreduce详解(基础篇)

    本篇文章主要从mapreduce运行作业的过程,shuffle,以及mapreduce作业失败的容错几个方面进行详解. 一.mapreduce作业运行过程 1.1.mapreduce介绍 MapRed ...

  3. hadoop之mapreduce详解(优化篇)

    一.概述 优化前我们需要知道hadoop适合干什么活,适合什么场景,在工作中,我们要知道业务是怎样的,能才结合平台资源达到最有优化.除了这些我们当然还要知道mapreduce的执行过程,比如从文件的读 ...

  4. 【转载】Hadoop历史服务器详解

    免责声明:     本文转自网络文章,转载此文章仅为个人收藏,分享知识,如有侵权,请联系博主进行删除.     原文作者:过往记忆(http://www.iteblog.com/)     原文地址: ...

  5. Hadoop RPC机制详解

    网络通信模块是分布式系统中最底层的模块,他直接支撑了上层分布式环境下复杂的进程间通信逻辑,是所有分布式系统的基础.远程过程调用(RPC)是一种常用的分布式网络通信协议,他允许运行于一台计算机的程序调用 ...

  6. hadoop hdfs uri详解

    body{ font-family: "Microsoft YaHei UI","Microsoft YaHei",SimSun,"Segoe UI& ...

  7. hadoop基础-SequenceFile详解

    hadoop基础-SequenceFile详解 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.SequenceFile简介 1>.什么是SequenceFile 序列文件 ...

  8. hadoop之yarn详解(框架进阶篇)

    前面在hadoop之yarn详解(基础架构篇)这篇文章提到了yarn的重要组件有ResourceManager,NodeManager,ApplicationMaster等,以及yarn调度作业的运行 ...

  9. Hadoop之WordCount详解

    花了好长时间查找资料理解.学习.总结 这应该是一篇比较全面的MapReduce之WordCount文章了 耐心看下去 1,创建本地文件 在hadoop-2.6.0文件夹下创建一个文件夹data,在其中 ...

随机推荐

  1. [bzoj4372] 烁烁的游戏 [动态点分治+线段树+容斥原理]

    题面 传送门 思路 观察一下题目,要求的是修改"距离点$u$的距离一定的点权值",那这个就不能用传统的dfs序类算法+线段树维护,因为涉及到向父亲回溯的问题 看到和树上距离相关的东 ...

  2. poj 2367 拓扑排序入门

    Description The system of Martians' blood relations is confusing enough. Actually, Martians bud when ...

  3. 莫队 [洛谷2709] 小B的询问[洛谷1903]【模板】分块/带修改莫队(数颜色)

    莫队--------一个优雅的暴力 莫队是一个可以在O(n√n)内求出绝大部分无修改的离线的区间问题的答案(只要问题满足转移是O(1)的)即你已知区间[l,r]的解,能在O(1)的时间内求出[l-1, ...

  4. 申请免费ssl证书

    #安装certbotyum install epel-releaseyum install certbot#配置nginx,到需要申请证书的配置文件里添加location ^~ /.well-know ...

  5. 【推荐】nodeJS后台守护进程-forever

    A simple CLI tool for ensuring that a given node script runs continuously (i.e. forever) 本地执行: npm i ...

  6. 【linux高级程序设计】(第十五章)UDP网络编程应用 1

    UDP网络通信流程 UDP没有connect的过程,故发送数据时需要指明目的地址,不能使用read/write/send/recv. 采用sendto()和recvfrom() ssize_t sen ...

  7. Jquery操作属性选择器

    <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title> ...

  8. 处理eq问题

    using System;using System.Diagnostics;using System.Drawing;using System.IO;using System.Windows.Form ...

  9. Codeforces 581F Zublicanes and Mumocrates(树型DP)

    题目链接  Round 322 Problem F 题意  给定一棵树,保证叶子结点个数为$2$(也就是度数为$1$的结点),现在要把所有的点染色(黑或白) 要求一半叶子结点的颜色为白,一半叶子结点的 ...

  10. 四. Java继承和多态2. Java super关键字

    super 关键字与 this 类似,this 用来表示当前类的实例,super 用来表示父类. super 可以用在子类中,通过点号(.)来获取父类的成员变量和方法.super 也可以用在子类的子类 ...