[源码解析]为什么mapPartition比map更高效
[源码解析]为什么mapPartition比map更高效
0x00 摘要
自从函数式编程和响应式编程逐渐进入到程序员的生活之后,map函数作为其中一个重要算子也为大家所熟知,无论是前端web开发,手机开发还是后端服务器开发,都很难逃过它的手心。而在大数据领域中又往往可以见到另外一个算子mapPartition的身影。在性能调优中,经常会被建议尽量用 mappartition 操作去替代 map 操作。本文将从Flink源码和示例入手,为大家解析为什么mapPartition比map更高效。
0x01 map vs mapPartition
1.1 map
Map的作用是将数据流上每个元素转换为另外的元素,比如data.map { x => x.toInt }
。它把数组流
中的每一个值,使用所提供的函数执行一遍,一一对应。得到与元素个数相同的数组流
。然后返回这个新数据流。
1.2 mapPartition
MapPartition的作用是单个函数调用并行分区,比如data.mapPartition { in => in map { (_, 1) } }
。该函数将分区作为“迭代器”,可以产生任意数量的结果。每个分区中的元素数量取决于并行度和以前的operations。
1.3 异同
其实,两者完成的业务操作是一样的,本质上都是将数据流上每个元素转换为另外的元素。
区别主要在两点。
从逻辑实现来讲,
- map逻辑实现简单,就是在函数中简单一一转换,map函数的输入和输入都是单个元素。
- mapPartition相对复杂,函数的输入有两个,一般格式为
void mapPartition(Iterable<T> values, Collector<O> out)
。其中values是需要映射转换的所有记录,out是用来发送结果的collector。具体返回什么,如何操作out来返回结果,则完全依赖于业务逻辑。
从调用次数来说,
- 数据有多少个元素,map就会被调用多少次。
- 数据有多少分区,mapPartition就会被调用多少次。
为什么MapPartition有这么高效呢,下面我们将具体论证。
0x02 代码
首先我们给出示例代码,从下文中我们可以看出,map就是简单的转换,而mapPartition则不但要做转换,程序员还需要手动操作如何返回结果:
public class IteratePi {
public static void main(String[] args) throws Exception {
final ExecutionEnvironment env=ExecutionEnvironment.getExecutionEnvironment();
//迭代次数
int iterativeNum=10;
DataSet<Integer> wordList = env.fromElements(1, 2, 3);
IterativeDataSet<Integer> iterativeDataSet=wordList.iterate(iterativeNum);
DataSet<Integer> mapResult=iterativeDataSet
.map(new MapFunction<Integer, Integer>() {
@Override
public Integer map(Integer value) throws Exception {
value += 1;
return value;
}
});
//迭代结束的条件
DataSet<Integer> result=iterativeDataSet.closeWith(mapResult);
result.print();
MapPartitionOperator<Integer, Integer> mapPartitionResult = iterativeDataSet
.mapPartition(new MapPartitionFunction<Integer, Integer>() {
@Override
public void mapPartition(Iterable<Integer> values, Collector<Integer> out) {
for (Integer value : values) {
// 这里需要程序员自行决定如何返回,即调用collect操作。
out.collect(value + 2);
}
} }
);
//迭代结束的条件
DataSet<Integer> partitionResult=iterativeDataSet.closeWith(mapPartitionResult);
partitionResult.print();
}
}
0x03 Flink的传输机制
世界上很少有没有来由的爱,也少见免费的午餐。mapPartition之所以高效,其所依赖的基础就是Flink的传输机制。所以我们下面就讲解下为什么。
大家都知道,Spark是用微批处理来模拟流处理,就是说,spark还是一批一批的传输和处理数据,所以我们就能理解mapPartition的机制就是基于这一批数据做统一处理。这样确实可以高效。
但是Flink号称是纯流,即Flink是每来一个输入record,就进行一次业务处理,然后返回给下游算子。
有的兄弟就会产生疑问:每次都只是处理单个记录,怎么能够让mapPartition做到批次处理呢。其实这就是Flink的微妙之处:即Flink确实是每次都处理一个输入record,但是在上下游传输时候,Flink还是把records累积起来做批量传输的。也可以这么理解:从传输的角度讲,Flink是微批处理的。
3.1 传输机制概述
Flink 的网络栈是组成 flink-runtime 模块的核心组件之一,也是 Flink 作业的核心部分。所有来自 TaskManager 的工作单元(子任务)都通过它来互相连接。流式传输数据流都要经过网络栈,所以它对 Flink 作业的性能表现(包括吞吐量和延迟指标)至关重要。与通过 Akka 使用 RPC 的 TaskManager 和 JobManager 之间的协调通道相比,TaskManager 之间的网络栈依赖的是更底层的,基于 Netty 的 API。
3.2 远程通信
一个运行的application的tasks在持续交换数据。TaskManager负责做数据传输。不同任务之间的每个(远程)网络连接将在 Flink 的网络栈中获得自己的 TCP 通道。但是如果同一任务的不同子任务被安排到了同一个 TaskManager,则它们与同一个 TaskManager 的网络连接将被多路复用,并共享一个 TCP 信道以减少资源占用。
每个TaskManager有一组网络缓冲池(默认每个buffer是32KB),用于发送与接受数据。如发送端和接收端位于不同的TaskManager进程中,则它们需要通过操作系统的网络栈进行交流。流应用需要以管道的模式进行数据交换,也就是说,每对TaskManager会维持一个永久的TCP连接用于做数据交换。在shuffle连接模式下(多个sender与多个receiver),每个sender task需要向每个receiver task发送数据,此时TaskManager需要为每个receiver task都分配一个缓冲区。
一个记录被创建并传递之后(例如通过 Collector.collect()),它会被递交到RecordWriter,其将来自 Java 对象的记录序列化为一个字节序列,后者最终成为网络缓存。RecordWriter 首先使用SpanningRecordSerializer将记录序列化为一个灵活的堆上字节数组。然后它尝试将这些字节写入目标网络通道的关联网络缓存。
因为如果逐个发送会降低每个记录的开销并带来更高的吞吐量,所以为了取得高吞吐量,TaskManager的网络组件首先从缓冲buffer中收集records,然后再发送。也就是说,records并不是一个接一个的发送,而是先放入缓冲,然后再以batch的形式发送。这个技术可以高效使用网络资源,并达到高吞吐。类似于网络或磁盘 I/O 协议中使用的缓冲技术。
接收方网络栈(netty)将接收到的缓存写入适当的输入通道。最后(流式)任务的线程从这些队列中读取并尝试在RecordReader的帮助下,通过Deserializer将积累的数据反序列化为 Java 对象。
3.3 TaskManager进程内传输
若sender与receiver任务都运行在同一个TaskManager进程,则sender任务会将发送的条目做序列化,并存入一个字节缓冲。然后将缓冲放入一个队列,直到队列被填满。
Receiver任务从队列中获取缓冲,并反序列化输入的条目。所以,在同一个TaskManager内,任务之间的数据传输并不经过网络交互。
即在同一个TaskManager进程内,也是批量传输。
3.4 源码分析
我们基于Flink优化的结果进行分析验证,看看Flink是不是把记录写入到buffer中,这种情况下运行的是CountingCollector和ChainedMapDriver。
copyFromSerializerToTargetChannel:153, RecordWriter (org.apache.flink.runtime.io.network.api.writer)
emit:116, RecordWriter (org.apache.flink.runtime.io.network.api.writer)
emit:60, ChannelSelectorRecordWriter (org.apache.flink.runtime.io.network.api.writer)
collect:65, OutputCollector (org.apache.flink.runtime.operators.shipping)
collect:35, CountingCollector (org.apache.flink.runtime.operators.util.metrics)
collect:79, ChainedMapDriver (org.apache.flink.runtime.operators.chaining)
collect:35, CountingCollector (org.apache.flink.runtime.operators.util.metrics)
invoke:196, DataSourceTask (org.apache.flink.runtime.operators)
doRun:707, Task (org.apache.flink.runtime.taskmanager)
run:532, Task (org.apache.flink.runtime.taskmanager)
run:748, Thread (java.lang)
当执行完用户定义的map函数之后,系统运行在 ChainedMapDriver.collect 函数。
public void collect(IT record) {
this.outputCollector.collect(this.mapper.map(record));// mapper就是用户代码
}
然后调用到了CountingCollector.collect
public void collect(OUT record) {
this.collector.collect(record);// record就是用户转换后的记录
}
OutputCollector.collect函数会把记录发送给所有的writers。
this.delegate.setInstance(record);// 先把record设置到SerializationDelegate中
for (RecordWriter<SerializationDelegate<T>> writer : writers) { // 所有的writer
writer.emit(this.delegate); // 发送record
}
RecordWriter
负责把数据序列化,然后写入到缓存中。它有两个实现类:
BroadcastRecordWriter
: 维护了多个下游channel,发送数据到下游所有的channel中。ChannelSelectorRecordWriter
: 通过channelSelector
对象判断数据需要发往下游的哪个channel。我们用的正是这个RecordWriter
。
这里我们分析下ChannelSelectorRecordWriter
的emit
方法:
public void emit(T record) throws IOException, InterruptedException {
emit(record, channelSelector.selectChannel(record));
}
这里使用了channelSelector.selectChannel
方法。该方法为record寻找到对应下游channel id。
public class OutputEmitter<T> implements ChannelSelector<SerializationDelegate<T>> {
public final int selectChannel(SerializationDelegate<T> record) {
switch (strategy) {
case FORWARD:
return forward(); // 我们代码用到了这种情况。这里 return 0;
......
}
}
}
接下来我们又回到了父类RecordWriter.emit
。
protected void emit(T record, int targetChannel) throws IOException, InterruptedException {
serializer.serializeRecord(record);
// Make sure we don't hold onto the large intermediate serialization buffer for too long
if (copyFromSerializerToTargetChannel(targetChannel)) {
serializer.prune();
}
}
关键的逻辑在于copyFromSerializerToTargetChannel
。此方法从序列化器中复制数据到目标channel,我们可以看出来,每条记录都是写入到buffer中。
protected boolean copyFromSerializerToTargetChannel(int targetChannel) throws IOException, InterruptedException {
// We should reset the initial position of the intermediate serialization buffer before
// copying, so the serialization results can be copied to multiple target buffers.
// 此处Serializer为SpanningRecordSerializer
// reset方法将serializer内部的databuffer position重置为0
serializer.reset();
boolean pruneTriggered = false;
// 获取目标channel的bufferBuilder
// bufferBuilder内维护了MemorySegment,即内存片段
// Flink的内存管理依赖MemorySegment,可实现堆内堆外内存的管理
// RecordWriter内有一个bufferBuilder数组,长度和下游channel数目相同
// 该数组以channel ID为下标,存储和channel对应的bufferBuilder
// 如果对应channel的bufferBuilder尚未创建,调用requestNewBufferBuilder申请一个新的bufferBuilder
BufferBuilder bufferBuilder = getBufferBuilder(targetChannel);
// 复制serializer的数据到bufferBuilder中
SerializationResult result = serializer.copyToBufferBuilder(bufferBuilder);
// 循环直到result完全被写入到buffer
// 一条数据可能会被写入到多个缓存中
// 如果缓存不够用,会申请新的缓存
// 数据完全写入完毕之时,当前正在操作的缓存是没有写满的
// 因此返回true,表明需要压缩该buffer的空间
while (result.isFullBuffer()) {
finishBufferBuilder(bufferBuilder);
// If this was a full record, we are done. Not breaking out of the loop at this point
// will lead to another buffer request before breaking out (that would not be a
// problem per se, but it can lead to stalls in the pipeline).
if (result.isFullRecord()) {
pruneTriggered = true;
emptyCurrentBufferBuilder(targetChannel);
break;
}
bufferBuilder = requestNewBufferBuilder(targetChannel);
result = serializer.copyToBufferBuilder(bufferBuilder);
}
checkState(!serializer.hasSerializedData(), "All data should be written at once");
// 如果buffer超时时间为0,需要flush目标channel的数据
if (flushAlways) {
flushTargetPartition(targetChannel);
}
return pruneTriggered;
}
0x04 runtime
4.1 Driver
Driver是Flink runtime的一个重要概念,是在一个task中运行的用户业务逻辑组件,具体实现了批量操作代码。其内部API包括初始化,清除,运行,取消等逻辑。
public interface Driver<S extends Function, OT> {
......
void setup(TaskContext<S, OT> context);
void run() throws Exception;
void cleanup() throws Exception;
void cancel() throws Exception;
}
具体在 org.apache.flink.runtime.operators 目录下,我们能够看到各种Driver的实现,基本的算子都有自己的Driver。
......
CoGroupDriver.java
FlatMapDriver.java
FullOuterJoinDriver.java
GroupReduceCombineDriver.java
GroupReduceDriver.java
JoinDriver.java
LeftOuterJoinDriver.java
MapDriver.java
MapPartitionDriver.java
......
4.2 MapDriver
map算子对应的就是MapDriver。
结合上节我们知道,上游数据是通过batch方式批量传入的。所以,在run函数会遍历输入,每次取出一个record,然后调用用户自定义函数function.map对这个record做map操作。
public class MapDriver<IT, OT> implements Driver<MapFunction<IT, OT>, OT> {
@Override
public void run() throws Exception {
final MutableObjectIterator<IT> input = this.taskContext.getInput(0);
.....
else {
IT record = null;
// runtime主动进行循环,这样导致大量函数调用
while (this.running && ((record = input.next()) != null)) {
numRecordsIn.inc();
output.collect(function.map(record)); // function是用户函数
}
}
}
}
4.3 MapPartitionDriver
MapPartitionDriver是mapPartition的具体组件。系统会把得到的批量数据inIter一次性的都传给用户自定义函数,由用户代码来进行遍历操作。
public class MapPartitionDriver<IT, OT> implements Driver<MapPartitionFunction<IT, OT>, OT> {
@Override
public void run() throws Exception {
final MutableObjectIterator<IT> input = new CountingMutableObjectIterator<>(this.taskContext.<IT>getInput(0), numRecordsIn);
......
} else {
final NonReusingMutableToRegularIteratorWrapper<IT> inIter = new NonReusingMutableToRegularIteratorWrapper<IT>(input, this.taskContext.<IT>getInputSerializer(0).getSerializer());
// runtime不参与循环,这样可以减少函数调用
function.mapPartition(inIter, output);
}
}
}
4.4 效率区别
我们能够看到map和mapPartition的input都是MutableObjectIterator input类型,说明两者的输入一致。只不过map是在Driver代码中进行循环,mapPartition在用户代码中进行循环。具体mapPartition的 效率提高体现在如下方面 :
- 假设一共有60个数据需要转换,map会在runtime中调用用户函数60次。
- runtime把数据分成6个partition操作,则mapPartition在runtime中会调用用户函数6次,在每个用户函数中分别循环10次。对于runtime来说,map操作会多出54次用户函数调用。
- 如果用户业务中需要频繁创建额外的对象或者外部资源操作,mapPartition的优势更可以体现。 例如将数据写入Mysql, 那么map需要为每个元素创建一个数据库连接,而mapPartition为每个partition创建一个链接。
假设有上亿个数据需要map,这资源占用和运行速度效率差别会相当大。
0x05 优化和ChainedMapDriver
之前提到了优化,这里我们再详细深入下如何优化map算子。
Flink有一个关键的优化技术称为任务链,用于(在某些情况下)减少本地通信的过载。为了满足任务链的条件,至少两个以上的operator必须配置为同一并行度,并且使用本地向前的(local forwad)方式连接。任务链可以被认为是一种管道。
当管道以任务链的方式执行时候,Operators的函数被融合成单个任务,并由一个单独的线程执行。一个function产生的records,通过使用一个简单的方法调用,被递交给下一个function。所以这里在方法之间的records传递中,基本没有序列化以及通信消耗。
针对优化后的Operator Chain,runtime对应的Driver则是ChainedMapDriver。这是通过 MAP(MapDriver.class, ChainedMapDriver.class, PIPELINED, 0)
, 映射得到的。
我们可以看到,因为是任务链,所以每个record是直接在管道中流淌 ,ChainedMapDriver连循环都省略了,直接map转换后丢给下游去也。
public class ChainedMapDriver<IT, OT> extends ChainedDriver<IT, OT> {
private MapFunction<IT, OT> mapper; // 用户函数
@Override
public void collect(IT record) {
try {
this.numRecordsIn.inc();
this.outputCollector.collect(this.mapper.map(record));
} catch (Exception ex) {
throw new ExceptionInChainedStubException(this.taskName, ex);
}
}
}
// 这时的调用栈如下
map:23, UserFunc$1 (com.alibaba.alink)
collect:79, ChainedMapDriver (org.apache.flink.runtime.operators.chaining)
collect:35, CountingCollector (org.apache.flink.runtime.operators.util.metrics)
invoke:196, DataSourceTask (org.apache.flink.runtime.operators)
doRun:707, Task (org.apache.flink.runtime.taskmanager)
run:532, Task (org.apache.flink.runtime.taskmanager)
run:748, Thread (java.lang)
0x06 总结
map和mapPartition实现的基础是Flink的数据传输机制 :Flink确实是每次都处理一个输入record,但是在上下游之间传输时候,Flink还是把records累积起来做批量传输。即可以认为从数据传输模型角度讲,Flink是微批次的。
对于数据流转换,因为是批量传输,所以对于积累的records,map是在runtime Driver代码中进行循环,mapPartition在用户代码中进行循环。
map的函数调用次数要远高于mapPartition。如果在用户函数中涉及到频繁创建额外的对象或者外部资源操作,则mapPartition性能远远高出。
如果没有connection之类的操作,则通常性能差别并不大,通常不会成为瓶颈,也没有想象的那么严重。
0x07 参考
深入了解 Flink 网络栈 ——A Deep-Dive into Flink's Network Stack
[源码解析]为什么mapPartition比map更高效的更多相关文章
- React源码解析之React.Children.map()(五)
一,React.Children是什么? 是为了处理this.props.children(this.props.children表示所有组件的子节点)这个属性提供的工具,是顶层的api之一 二,Re ...
- 关于JDK源码:我想聊聊如何更高效地阅读
简介 大家好,我是彤哥,今天我想和大家再聊聊JDK源码的几个问题: 为什么要看JDK源码 JDK源码的阅读顺序 JDK源码的阅读方法 为什么要看JDK源码 一,JDK源码是其它所有源码的基础,看懂了J ...
- jQuery 源码解析(六) $.each和$.map的区别
$.each主要是用来遍历数组或对象的,例如: var arr=[11,12,13,14]; $.each(arr,function(element,index){ //遍历arr数组 console ...
- Java 集合系列 04 LinkedList详细介绍(源码解析)和使用示例
java 集合系列目录: Java 集合系列 01 总体框架 Java 集合系列 02 Collection架构 Java 集合系列 03 ArrayList详细介绍(源码解析)和使用示例 Java ...
- 源码解读 Golang 的 sync.Map 实现原理
简介 Go 的内建 map 是不支持并发写操作的,原因是 map 写操作不是并发安全的,当你尝试多个 Goroutine 操作同一个 map,会产生报错:fatal error: concurrent ...
- 给jdk写注释系列之jdk1.6容器(6)-HashSet源码解析&Map迭代器
今天的主角是HashSet,Set是什么东东,当然也是一种java容器了. 现在再看到Hash心底里有没有会心一笑呢,这里不再赘述hash的概念原理等一大堆东西了(不懂得需要先回去看下Has ...
- ReactiveCocoa源码解析(五) SignalProtocol的observe()、Map、Filter延展实现
上篇博客我们对Signal的基本实现以及Signal的面向协议扩展进行了介绍, 详细内容请移步于<Signal中的静态属性静态方法以及面向协议扩展>.并且聊了Signal的所有的g功能扩展 ...
- ReactiveSwift源码解析(五) SignalProtocol的observe()、Map、Filter延展实现
上篇博客我们对Signal的基本实现以及Signal的面向协议扩展进行了介绍, 详细内容请移步于<Signal中的静态属性静态方法以及面向协议扩展>.并且聊了Signal的所有的g功能扩展 ...
- Alink漫谈(十八) :源码解析 之 多列字符串编码MultiStringIndexer
Alink漫谈(十八) :源码解析 之 多列字符串编码MultiStringIndexer 目录 Alink漫谈(十八) :源码解析 之 多列字符串编码MultiStringIndexer 0x00 ...
随机推荐
- SpringBoot:整合Shiro
目录 1.Shiro简介 1.1.什么是Shiro? 1.2.有哪些功能 1.3.Shiro架构(外部) 1.4.Shiro架构(内部) 2.HelloWorld 3.Shiro整合Spring Bo ...
- 在web项目中使用shiro(认证、授权)
一.在web项目中实现认证 第一步,在web项目中导入shiro依赖的包 第二步,在web.xml中声明shiro拦截权限的过滤器 <filter> <filter-name> ...
- hive元数据报错?试了很多方法都没辙?也许你漏了这一步
进入hiveCLI后,输入show databases; 显示 FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveExc ...
- 解决:idea中右键项目找不到subversion
2019.02版IDEA,刚刚发现更新不了项目,但是我记得之前的项目是可以直接更新的.然后,我打开之前的项目找到相关项,对比了一下,找到了方法: file--settings--Version Con ...
- Python内置函数列表
函数 用途 abs() 返回数字绝对值 all() 判断给定的可迭代参数 iterable 中的所有元素是否都为 TRUE,如果是返回 True,否则返回 False any() 判断给定的可迭代参数 ...
- Linux --登录用户显示-bash-4.2#解决办法
登录linux系统过后,发现显示的是-bash-4.2# 而不是root@主机名 + 路径的显示方式,发生这种情况的原因是根目录下缺失几个配置文件,从默认配置中拷贝过来就可以解决了: 1 cp /et ...
- 热修复框架Tinker快速集成
由于腾讯官方的demo对于刚接触的我来说,太过复杂,找不到核心配置,因此将tinker集成中最核心的东西抽取出来,整合到一个demo中. demo工程已经提交到github上,点击跳转 更多使用方法, ...
- SpringBoot2.x快速入门指南(一)
SpringBoot2.x快速入门指南(一) 准备工作 IDE: IntelliJ IDEA 2020.3 Java环境 jdk1.8 在官网快速创建SpringBoot项目 下面开始进入正题: 进入 ...
- CPU上下文切换以及相关指标的理解
前言 上下文切换这个词一直不理解,看了无数遍就忘了无数遍,知道看到<操作系统导论>这本书,终于有了略微的理解.这也证明了我的方向是没错的,一直认为做运维还是得理解底层的知识,不理解很多 ...
- 第3章_关系数据库标准语言(SQL)_006_由元组关系演算到SQL Command_001_蕴含式 (其中有对EXISTS的分析)
前序的链接:元组关系演算 六. 蕴含式 ===>1. 什么是“蕴含式”===>设p.q为两个命题.复合命题“如果p,则q”称为p与q的蕴含式,记作p→q,并称p为蕴含式的前件,q为后件.定 ...