shuffle 简介

shuffle 描述了数据从 map task 输出到 reduce task 输入的过程,shuffle 是连接 map 和 reduce 的桥梁;

shuffle 性能的高低直接影响了整个程序的性能和吞吐量,因为在 分布式 情况下,reduce task 需要跨节点去拉取其他节点上 map task 的结果,这需要消耗网络资源、内存 IO 和磁盘 IO;

shuffle 可分为两部分:map 阶段的数据准备和 reduce 阶段的数据拷贝处理,一般 map 端的 shuffle 称之为 Shuffle Write,reduce 端的 shuffle 称之为 Shuffle Read

Hadoop MapReduce Shuffle

hadoop 中的 shuffle 过程应该是很多 shuffle 的基础,互相参考,所以请先了解 hadoop 的 shuffle,参考 我的博客 hadoop-mapreduce 详解

Spark Shuffle

Stage

首先我们了解一个概念,Stage,在讲 Spark 原理时,提了一下

1. 一个 job 会被划分成 多个 Stage,送给 task 调度器;

2. Stage 中是高效快速的 Pipeline 的计算模式;

3. 宽依赖之间会划分 Stage;

4. 不同的 Stage 之间会有 Shuffle

看图来理解一下

Stage 1 和 Stage 3 之间存在 shuffle;Stage 2 和 Stage 3 之间也存在 shuffle

Shuffle 发展

在 spark 中,shuffle 的计算、执行和处理 由 ShuffleManager 负责;

ShuffleManager 随着 spark 的发展有两种方式,分别为 HashShuffleManager 和 SortShuffleManager,因此 spark 的 shuffle 有 Hash 和 Sort 两种;

在 spark1.2,使用 HashShuffleManager,由于 Hash 存在很多问题,spark1.2 之后,改为 SortShuffleManager

HashShuffleManager

由于已经被弃用,简单介绍下

HashShuffleManager 的运行机制分为两种,一种是 普通运行机制,一种是 合并运行机制,合并运行机制是对普通机制的优化;

1) 普通运行机制

上图的表达不是很准确,我们可以这么理解

一个 job 启动了 两个 Executor,每个 Executor 是单核,所以一次只能运行一个 task,上图中一个 Executor 有两个 task,我们可以理解为 一个 task 执行完毕后,执行另一个 task;

1. 上图有 3 个 reduce task,故 map 阶段需要输出 3 个 parttition;

2. task 对数据进行 partition 后,把不同分区存入 内存 buffer;

3. buffer 填满后,spill 到磁盘,每个 task 会新建文件;

4. 最后生成了 3(个区)x2(Executor 数)x2(每个Executor任务数) = 12 个小文件;

5. 每个 reduce (3 个分区,需要 3 个 reduce)从不同节点拉取自己需要的 文件;

存在的问题

1. 生成了很多小文件,map 端 write 和 reduce 端 read 会消耗大量的 IO ;

2. 过多的小文件,在拉取过程中会消耗大量的网络资源,并且很耗时;

3. 由于内存中需要保存海量文件操作句柄和临时信息,如果数据处理的规模比较庞大的话,内存不可承受,会出现 OOM 等问题

2) 合并运行机制

针对 普通运行机会,它的改进在于,在分区之后,把每个 task 的分区结果追加到一个文件中,代替了每个task新建文件,这样一定程度上减少了 map 后的 文件数量;

但问题依然很大

SortShuffleManager

SortShuffleManager 的运行机制也分两种:一种是 普通运行机制,另一种是 bypass 运行机制

1)普通运行机制

1. 数据先写入一个内存数据结构中

  // 根据不同的 shuffle 算子,选择不同的数据结构,

  如果是 reduceByKey 等聚合算子,会选择 map 数据结构,先通过 map 进行聚合,在写入内存;

  // 如果是 join 等普通算子,选用 array 数据结构,直接写入内存

2. 每写入一条数据,会计算该数据结构的大小,如果达到临界值,就溢写到磁盘,然后清空该数据结构

3. 在溢写时,首先根据 key 进行排序

4. 然后分批写入磁盘,也就是有个 buffer,每次 batch 1w 条数据,当 buffer 区满了,再一次性写入磁盘,这样减少 IO,提升性能

5. merge:一个 task 将所有数据写入内存数据结构的过程中,会发生很多次溢写操作,产生多个 临时文件;最后需要将这些文件全部合并为一个文件;

  // 分别读取每个临时文件,依次写入一个文件;

  // 一个 task 只对应一个 文件,ruduce 端只需拉取一个文件即可;

  // 由于一个 task 溢写的那个总文件实际上对应了后面多个 reduce,所以需要有一个 索引文件,指定在文件中每个 reduce 对应的数据的 offset,start and end

2)bypass 运行机制

这种机制只在某种条件下执行,触发条件为

1. shuffle map task 数量小于 spark.shuffle.sort.bypassMergeThreshold 参数的值

2. 非聚合类算子

1. 这种机制会给每个 reduce 产生一个临时文件,其实跟 普通机制的 HashShuffleManager  一样,根据 key 的 hash 值写入不同的文件,当然写入时 还是 buffer,然后 buffer 满了才一次性写入

  // 此时产生了大量的小文件

2. 将所有文件进行合并,也会产生一个 索引文件,记录每个 reduce 端的所需数据的 offset

VS 普通机制的 HashShuffleManager:最终合并为一个大文件和一个索引文件

VS 普通机制的 SortShuffleManager:1. shuffle write 机制不同;2. 没有排序

本文只是做了简单介绍,其实还有很多更深的内容没有涉及,后续有时间再说

参考资料:

https://www.cnblogs.com/itboys/p/9226479.html#top

spark教程(13)-shuffle介绍的更多相关文章

  1. Spark教程——(11)Spark程序local模式执行、cluster模式执行以及Oozie/Hue执行的设置方式

    本地执行Spark SQL程序: package com.fc //import common.util.{phoenixConnectMode, timeUtil} import org.apach ...

  2. node-webkit教程(13)gpu支持信息查看

    node-webkit教程(13)gpu支持信息查看 文/玄魂 目录 node-webkit教程(13)gpu支持信息查看 前言 13.1操作步骤 (一)打开node-webkit,输入chrome: ...

  3. matlab中文论坛视频谷普教程MATLAB压缩包介绍

    matlab中文论坛视频谷普教程MATLAB压缩包介绍 我也正在学习这个软件 ,看到这个教程就在这里分享了,希望大家喜欢!Matlab 初学者视频教学1. Matlab视频:Matlab中文论坛为新手 ...

  4. spark性能调优(二) 彻底解密spark的Hash Shuffle

    装载:http://www.cnblogs.com/jcchoiling/p/6431969.html 引言 Spark HashShuffle 是它以前的版本,现在1.6x 版本默应是 Sort-B ...

  5. [译]Vulkan教程(13)图形管道基础之Shader模块

    [译]Vulkan教程(13)图形管道基础之Shader模块 Shader modules Unlike earlier APIs, shader code in Vulkan has to be s ...

  6. 深度学习与CV教程(13) | 目标检测 (SSD,YOLO系列)

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/37 本文地址:http://www.showmeai.tech/article-det ...

  7. VB6 GDI+ 入门教程[1] GDI+介绍

    http://vistaswx.com/blog/article/category/tutorial/page/2 VB6 GDI+ 入门教程[1] GDI+介绍 2009 年 6 月 18 日 17 ...

  8. spark教程

    某大神总结的spark教程, 地址 http://litaotao.github.io/introduction-to-spark?s=inner

  9. Python爬虫教程-01-爬虫介绍

    Spider-01-爬虫介绍 Python 爬虫的知识量不是特别大,但是需要不停和网页打交道,每个网页情况都有所差异,所以对应变能力有些要求 爬虫准备工作 参考资料 精通Python爬虫框架Scrap ...

随机推荐

  1. AcWing:135. 最大子序和(前缀和 + 单调队列)

    输入一个长度为n的整数序列,从中找出一段长度不超过m的连续子序列,使得子序列中所有数的和最大. 输入格式 第一行输入两个整数n,m. 第二行输入n个数,代表长度为n的整数序列. 同一行数之间用空格隔开 ...

  2. Vue_(组件)自定义指令

    Vue.js自定义指令 传送门 自定义指令:除了内置指令,Vue也允许用户自定义指令 注册指令:通过全局API Vue.directive可以注册自定义指令 自定义指令的钩子函数参数:自定义指令的钩子 ...

  3. HDU 5810 Balls and Boxes ——(数学,概率,方差)

    官方题解看不太懂,参考了一些人的博客以后自己证明如下: 其中D(X)和E(X)的公式如下(参考自百度百科): 其中 p = 1 / m .(这是每一个单独事件发生的概率期望,在这里单独事件指的是一个球 ...

  4. fastjson =< 1.2.47 反序列化漏洞浅析

    fastjson =< 1.2.47 反序列化漏洞浅析 iiusky 洛米唯熊 今天 文章出处: https://www.03sec.com/3240.shtmlhttps://www.secq ...

  5. 实验四《Android程序设计》实验报告封面

    实验四<Android程序设计>实验报告封面 课程:Java程序设计 班级:1753班 姓名:许钰玮 学号:20175329 指导教师:娄嘉鹏 实验日期:2019年5月13日 实验时间:1 ...

  6. 基本CSS布局二

    基本CSS布局二------基本页面布局二 /*主面板样式*/ #container { width:100%; margin:0px auto;/*主面板DIV居中*/ } /*顶部面板样式*/ # ...

  7. iOS真机调试之免费预配(Free provisioning)

    免费预配允许开发者在不加入Applec Developer Program的情况下,可以发布和测试App 注意:免费预配(Free Provisioning)与自动预配(Auto Provisioni ...

  8. python:将numpy数组写入csv文件

    import numpy as np np.savetxt('E:\\forpython\\featvector.csv',data_to_save,delimiter=',')

  9. oracle查看表空间的大小及使用情况sql语句

    --------------------------tablespace------------------------------------------------ 1.//查看表空间的名称及大小 ...

  10. CentOS 安装 Mongodb详解 --- 无Linux基础

    先去官方下载离线安装包:https://www.mongodb.com/ ftp连接一下服务器,把离线包上传上去 XShell连接一下: 解压文件(你输一点就可以按tab键,它会自动补全):tar - ...