优化思路

内存优化

内存优化大概分为三个方向

1.所有对象的总内存(包括数据和java对象)

2.访问这些对象的开销

3.垃圾回收的开销

其中Java的原生对象往往都能被很快的访问,但是会多占据2-5倍或更多的内存,有下面4点原因

·每个单独的java对象都有一个对象头(16字节),其中包括指向对象的指针(栈->堆),如果该对象只有几个属性,那么对象头可能比实际数据占用的空间都大(严重浪费资源)

·java每个string都包含了40字节的额外开销(因为底层其实是存储在数组,需要记录数组的指针,长度等信息),每个字符包含2字节(UTF-16编码)。例如一个10字符的string,实际占用内存空间60字节

·常见的集合类,例如linkedlist,hashmap都有用到链表,其中的对象头,元素指针都会占据额外的空间

·基础类型的包装,例如Integer

明确内存消耗

一般情况,可以把数据转成rdd,然后通过spark自带的UI的Storage页面来观察rdd占用内存大小。

其它特殊的对象,可以用spark自带的工具类SizeEstimator来评估内存大小,包括对广播数据的内存占用评估

优化数据结构

避免使用需要额外开销的java原生的数据结构,比如链表,hashmap,包装类。下面是常见的方法

·尽量使用数组结构和基础类型,

·在嵌套的数据结构中,尽量避免小对象和指针

·考虑用数字或者枚举来代替string作为key

·如果内存少于32GB,可以优化JVM -XX:+UseCompressedOops ,OOP = “ordinary object pointer” 普通对象指针。可以让指针由8->4字节,压缩的一般是对象的相关指针(不是用来压缩数据的)。

一般建议场景是在分配给JVM的内存大小在[4G,32G], 如果小于4G,那么JVM会使用低虚拟地址空间(low virutal address space,64位下模拟32位),这样就不需要做压解压动作了。而对于大于32G,将采用默认的随机地址分配特性,进行压解压。

数据序列化

选择合适的序列化协议,一般而言用Kryo,比java原生序列化快很多

数据存储

RDD persistence API

通过把数据序列化至内存,或者磁盘,或者其他策略

GC优化

所有给spark的内存资源,有一部分是用于cache RDD的,剩下的用于jvm的堆和栈等使用。

默认的比例是cache RDD占总内存的60%,可以通过spark.storage.memoryFraction来更改。

一般情况下,官方文档建议这个比值不要超过JVM Old Gen区域的比值。这也很容易理解,因为RDD Cache数据通常都是长期驻留内存的,理论上也就是说最终会被转移到Old Gen区域(如果该RDD还没有被删除的话),如果这部分数据允许的尺寸太大,势必把Old Gen区域占满,造成频繁的FULL GC,这种情况就可以调小该值。

·确认资源是否给足driver的cpu和memory,executor的cpu和memory

·当出现过多的full GC时候,可以减小RDD cache的内存空间

·当出现过多的minor GC时候,可以增加JVM中Eden区的大小,通过4/3的比例增加

·其它常规JVM优化方法,线程栈的内存大小,永久代的堆内存大小等

分区数优化

分区数多就是task多,整个任务的并发度就高,但也不是越多越好,假设你有100条数据,有50个分区,平均一个分区就处理两条数据,这样就造成了严重的浪费,更多的时间浪费在分区间的shuffle,和driver的聚合。

下面是几个优化建议

·每个cpu core上跑2~3个tasks

·当task上的数据大于20KB的时候,可以考虑

·在当前的分区数的1.5倍来进行调优

关于分区

除了显示的声明rdd或者dataframe的分区数外,还有两种控制分区数的配置,

1.spark.sql.shuffle.partitions

针对dataframe和一些sql操作的分区数

默认的分区数为父RDD的最大分区数

2.spark.default.parallelism

针对rdd的默认分区数

一般分区数取决于executor的core数量,因为partition越多task越多,而task是spark的最小处理单元。executor的core数量不够,task再多也只能排队,反而慢了。

注:默认的shuffle后分区数为200

共享变量

广播

当遇到全局性的数据需要使用时,可以采用广播的方式

广播变量的优势:是因为不是每个task一份变量副本,而是变成每个节点的executor才一份副本。这样的话,就可以让变量产生的副本大大减少。

广播变量,初始的时候,就在Drvier上有一份副本。task在运行的时候,想要使用广播变量中的数据,此时首先会在自己本地的Executor对应的BlockManager中,尝试获取变量副本;如果本地没有,BlockManager,也许会从远程的Driver上面去获取变量副本;也有可能从距离比较近的其他节点的Executor的BlockManager上去获取,并保存在本地的BlockManager中;BlockManager负责管理某个Executor对应的内存和磁盘上的数据,此后这个executor上的task,都会直接使用本地的BlockManager中的副本。

例如,50个executor,1000个task。一个map,10M。默认情况下,1000个task,1000份副本。10G的数据,网络传输,在集群中,耗费10G的内存资源。如果使用了广播变量。50个execurtor,50个副本。500M的数据,网络传输,而且不一定都是从Driver传输到每个节点,还可能是就近从最近的节点的executor的bockmanager上拉取变量副本,网络传输速度大大增加;500M,大大降低了内存消耗。

累加器

全局的累加器,可以用于统计全局性的数据

数据本地化

数据本地化是一个影响spark jobs性能的主要方面。其实运行分为两块,一块数据,一块代码,最好的情况就是数据不动(数据量太大),代码会部署在各个executor上。

可以通过调节spark.locality相关配置来决定任务的运行选择。

大致想法

数据量大的情况,单个task运行时间很长,这时候减少数据的shuffle是很重要的事。如果拿时间比较的话,spark.locality.wait的时间会大大小于大量数据在节点间shuffle的时间,所以这时候,增加spark.locality.wait是很有必要的事情。

数据量小的情况,或者说单个task运行时间较短。假设task 的平均耗时在2s左右,那么默认的spark.locality.wait的时间都够task运行了,此时等待task选择一个好的运行位置将失去意义。甚至可以把spark.locality.wait置为0。

接口优化

1.reduceBy和groupBy

同理,reduceByKey,aggregateByKey,groupByKey等

优先使用reduceBy

reduceBy会优先合并本地的rdd,这样就大大的减少了shuffle的数据量

2.coalesce和repartition

看源码可知repartition是采用shuffle的coalesce。从性能上来讲,coalesce是本地合并,也就是同一个executor合并,这样可以减少网络传输带来的性能损失,并且是窄依赖,数据恢复也方便。而reparation直接采用shuffle的方式合并。优先使用coalesce。但是在大量分区需要合并的时候,要考虑一下策略。比如,现在一共有1000个分区,需要合并成10个分区。

如果直接采用coalesce(10),可能导致合并的速度并不快(原因未知),而采用reparation(10)并发度会多很多。最终性能还是repartition好一点。

应用场景,设原rdd分区大小为M,现rdd分区大小为N
M>N,并且差10倍以内,考虑用coalesce
M>N,并且差10倍以上,考虑用repartition
M<N,考虑用repartition

注:也可以采用混合使用,先coalesce,把分区数降下来,然后采用repartition,当然这就需要实际测试,观察哪种性能更加

动态分配资源

Spark on yarn支持一种特殊的资源分配机制

从spark1.2开始就提供该机制。你的application在运行过程中会返回给资源池你所拥有的资源(比如你问yarn要了2G,跑玩数据预处理后,接下来的计算只需要1G,那剩下的1G就先还给yarn)

可以通过下面配置开启

spark.dynamicAllocation.enabled=true

参考资料

//官方配置文档

http://spark.apache.org/docs/1.5.0/configuration.html

//spark官方提供的思路

https://spark.apache.org/docs/1.5.0/tuning.html

//cloudera提供的思路

http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-1/

http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/

//IBM提供的相关资料

https://www.ibm.com/support/knowledgecenter/en/SSZU2E_2.2.0/performance_tuning/application_overview.html

spark(二)优化思路的更多相关文章

  1. Spark性能优化(二)

    资源调优 调优概述 在开发完Spark作业之后,就该为作业配置合适的资源了.Spark的资源参数,基本都可以在spark-submit命令中作为参数设置.很多Spark初学者,通常不知道该设置哪些必要 ...

  2. 【转载】Spark性能优化指南——高级篇

    前言 数据倾斜调优 调优概述 数据倾斜发生时的现象 数据倾斜发生的原理 如何定位导致数据倾斜的代码 查看导致数据倾斜的key的数据分布情况 数据倾斜的解决方案 解决方案一:使用Hive ETL预处理数 ...

  3. 【转】【技术博客】Spark性能优化指南——高级篇

    http://mp.weixin.qq.com/s?__biz=MjM5NjQ5MTI5OA==&mid=2651745207&idx=1&sn=3d70d59cede236e ...

  4. Spark性能优化指南——高级篇(转载)

    前言 继基础篇讲解了每个Spark开发人员都必须熟知的开发调优与资源调优之后,本文作为<Spark性能优化指南>的高级篇,将深入分析数据倾斜调优与shuffle调优,以解决更加棘手的性能问 ...

  5. Spark性能优化指南-高级篇

    转自https://tech.meituan.com/spark-tuning-pro.html,感谢原作者的贡献 前言 继基础篇讲解了每个Spark开发人员都必须熟知的开发调优与资源调优之后,本文作 ...

  6. Spark性能优化指南——高级篇

    本文转载自:https://tech.meituan.com/spark-tuning-pro.html 美团技术点评团队) Spark性能优化指南——高级篇 李雪蕤 ·2016-05-12 14:4 ...

  7. Spark性能优化:数据倾斜调优

    前言 继<Spark性能优化:开发调优篇>和<Spark性能优化:资源调优篇>讲解了每个Spark开发人员都必须熟知的开发调优与资源调优之后,本文作为<Spark性能优化 ...

  8. 【转载】 Spark性能优化指南——基础篇

    转自:http://tech.meituan.com/spark-tuning-basic.html?from=timeline 前言 开发调优 调优概述 原则一:避免创建重复的RDD 原则二:尽可能 ...

  9. 【转】Spark性能优化指南——基础篇

    http://mp.weixin.qq.com/s?__biz=MjM5NDMwNjMzNA==&mid=2651805828&idx=1&sn=2f413828d1fdc6a ...

随机推荐

  1. 剑指Offer——二叉搜索树与双向链表

    题目描述: 输入一棵二叉搜索树,将该二叉搜索树转换成一个排序的双向链表.要求不能创建任何新的结点,只能调整树中结点指针的指向. 分析: 二叉搜索树,中序遍历就是排序的. 所以我们利用中序遍历,将前后两 ...

  2. mybatis拓展框架对比

    对比项 mybatis-plus mybatis-enhance mapper fastmybatis 表名映射 @TableName @Table JPA:@Table JPA:@Table 主键映 ...

  3. Powerdesigner显示列名

    设置要修改的列 点击ok即可.

  4. C++入门(1)

    #include<>直接从编译器自带的函数库中寻找文件 #include""是先从自定义的文件中找 ,如果找不到在从函数库中寻找文件 采用"< > ...

  5. Spotlight 连接SuSE11 linux报错的解决方法

    1. 在客户端安装spotlight: 2.在SuSE11中建立新用户,并且安装了sysstat包: 3.使用spotlight连接服务器,连接时提示    errorcode:3114   reas ...

  6. PSR-2 代码风格规范

    https://blog.csdn.net/qq_28602957/article/details/52248239 这篇规范是PSR-1(基本代码规范)的扩展和继承. 本规通过制定一系列规范化PHP ...

  7. java通过url抓取网页数据-----正则表达式

    原文地址https://www.cnblogs.com/xiaoMzjm/p/3894805.html [本文介绍] 爬取别人网页上的内容,听上似乎很有趣的样子,只要几步,就可以获取到力所不能及的东西 ...

  8. Linux系统——date命令

    date命令 作用:用来显示或设定系统的日期与时间. 参数 -d<字符串>:显示字符串所指的日期与时间.字符串前后必须加上双引号: -s<字符串>:根据字符串来设置日期与时间. ...

  9. Leetcode 357

    没用过Leetcode刷题,只能按照自己的想法随便写写了 思路:1.第一位数有9种(除了0)可能,第二位数有9种(除了第一位)可能,第三位数有8种(除了前两位)可能,以此类推...9*8*7*...( ...

  10. JVM调优之Java进程消耗CPU过高

    JVM调优之Java进程消耗CPU过高 查找问题思路 1.查看cpu使用率,发现有线程cpu占用率很高  tops 咱们拿18092线程举例示范 2.查询pid对应的进程 ps -ef|grep 18 ...