转载自:http://www.jianshu.com/p/082ef79c63c1

broadcast


官方文档描述:


  1. Broadcast a read-only variable to the cluster, returning a
  2. [[org.apache.spark.broadcast.Broadcast]] object for reading it in distributed functions.
  3. The variable will be sent to each cluster only once.

函数原型:


  1. def broadcast[T](value: T): Broadcast[T]

广播变量允许程序员将一个只读的变量缓存在每台机器上,而不用在任务之间传递变量。广播变量可被用于有效地给每个节点一个大输入数据集的副本。Spark还尝试使用高效地广播算法来分发变量,进而减少通信的开销。 Spark的动作通过一系列的步骤执行,这些步骤由分布式的洗牌操作分开。Spark自动地广播每个步骤每个任务需要的通用数据。这些广播数据被序列化地缓存,在运行任务之前被反序列化出来。这意味着当我们需要在多个阶段的任务之间使用相同的数据,或者以反序列化形式缓存数据是十分重要的时候,显式地创建广播变量才有用。

源码分析:


  1. def broadcast[T: ClassTag](value: T): Broadcast[T] = {
  2. assertNotStopped()
  3. if (classOf[RDD[_]].isAssignableFrom(classTag[T].runtimeClass)) {
  4. // This is a warning instead of an exception in order to avoid breaking user programs that
  5. // might have created RDD broadcast variables but not used them:
  6. logWarning("Can not directly broadcast RDDs; instead, call collect() and "
  7. + "broadcast the result (see SPARK-5063)")
  8. }
  9. val bc = env.broadcastManager.newBroadcast[T](value, isLocal)
  10. val callSite = getCallSite
  11. logInfo("Created broadcast " + bc.id + " from " + callSite.shortForm)
  12. cleaner.foreach(_.registerBroadcastForCleanup(bc))
  13. bc
  14. }

实例:


  1. List<Integer> data = Arrays.asList(5, 1, 1, 4, 4, 2, 2);
  2. JavaRDD<Integer> javaRDD = javaSparkContext.parallelize(data,5);
  3. final Broadcast<List<Integer>> broadcast = javaSparkContext.broadcast(data);
  4. JavaRDD<Integer> result = javaRDD.map(new Function<Integer, Integer>() {
  5. List<Integer> iList = broadcast.value();
  6. @Override
  7. public Integer call(Integer v1) throws Exception {
  8. Integer isum = 0;
  9. for(Integer i : iList)
  10. isum += i;
  11. return v1 + isum;
  12. }
  13. });
  14. System.out.println(result.collect());

accumulator


官方文档描述:


  1. Create an [[org.apache.spark.Accumulator]] variable of a given type, which tasks can "add"
  2. values to using the `add` method. Only the master can access the accumulator's `value`.

函数原型:


  1. def accumulator[T](initialValue: T, accumulatorParam: AccumulatorParam[T]): Accumulator[T]
  2. def accumulator[T](initialValue: T, name: String, accumulatorParam: AccumulatorParam[T])
  3. : Accumulator[T]

累加器是仅仅被相关操作累加的变量,因此可以在并行中被有效地支持。它可以被用来实现计数器和sum。Spark原生地只支持数字类型的累加器,开发者可以添加新类型的支持。如果创建累加器时指定了名字,可以在Spark的UI界面看到。这有利于理解每个执行阶段的进程(对于Python还不支持) 。
累加器通过对一个初始化了的变量v调用SparkContext.accumulator(v)来创建。在集群上运行的任务可以通过add或者”+=”方法在累加器上进行累加操作。但是,它们不能读取它的值。只有驱动程序能够读取它的值,通过累加器的value方法。

源码分析:


  1. def accumulator[T](initialValue: T, name: String)(implicit param: AccumulatorParam[T])
  2. : Accumulator[T] = {
  3. val acc = new Accumulator(initialValue, param, Some(name))
  4. cleaner.foreach(_.registerAccumulatorForCleanup(acc))
  5. acc
  6. }

实例:


  1. class VectorAccumulatorParam implements AccumulatorParam<Vector> {
  2. @Override
  3. //合并两个累加器的值。
  4. //参数r1是一个累加数据集合
  5. //参数r2是另一个累加数据集合
  6. public Vector addInPlace(Vector r1, Vector r2) {
  7. r1.addAll(r2);
  8. return r1;
  9. }
  10. @Override
  11. //初始值
  12. public Vector zero(Vector initialValue) {
  13. return initialValue;
  14. }
  15. @Override
  16. //添加额外的数据到累加值中
  17. //参数t1是当前累加器的值
  18. //参数t2是被添加到累加器的值
  19. public Vector addAccumulator(Vector t1, Vector t2) {
  20. t1.addAll(t2);
  21. return t1;
  22. }
  23. }
  24. List<Integer> data = Arrays.asList(5, 1, 1, 4, 4, 2, 2);
  25. JavaRDD<Integer> javaRDD = javaSparkContext.parallelize(data,5);
  26. final Accumulator<Integer> accumulator = javaSparkContext.accumulator(0);
  27. Vector initialValue = new Vector();
  28. for(int i=6;i<9;i++)
  29. initialValue.add(i);
  30. //自定义累加器
  31. final Accumulator accumulator1 = javaSparkContext.accumulator(initialValue,new VectorAccumulatorParam());
  32. JavaRDD<Integer> result = javaRDD.map(new Function<Integer, Integer>() {
  33. @Override
  34. public Integer call(Integer v1) throws Exception {
  35. accumulator.add(1);
  36. Vector term = new Vector();
  37. term.add(v1);
  38. accumulator1.add(term);
  39. return v1;
  40. }
  41. });
  42. System.out.println(result.collect());
  43. System.out.println("~~~~~~~~~~~~~~~~~~~~~" + accumulator.value());
  44. System.out.println("~~~~~~~~~~~~~~~~~~~~~" + accumulator1.value());
 

【Spark Java API】broadcast、accumulator的更多相关文章

  1. 【Spark调优】Broadcast广播变量

    [业务场景] 在Spark的统计开发过程中,肯定会遇到类似小维表join大业务表的场景,或者需要在算子函数中使用外部变量的场景(尤其是大变量,比如100M以上的大集合),那么此时应该使用Spark的广 ...

  2. HBase【操作Java api】

    一.导入依赖 创建模块,导入以下依赖,maven默认编译版本是1.5,用1.8编译. pom.xml <dependencies> <dependency> <group ...

  3. 【Spark调优】提交job资源参数调优

    [场景] Spark提交作业job的时候要指定该job可以使用的CPU.内存等资源参数,生产环境中,任务资源分配不足会导致该job执行中断.失败等问题,所以对Spark的job资源参数分配调优非常重要 ...

  4. 【Spark调优】数据倾斜及排查

    [数据倾斜及调优概述] 大数据分布式计算中一个常见的棘手问题——数据倾斜: 在进行shuffle的时候,必须将各个节点上相同的key拉取到某个节点上的一个task来进行处理,比如按照key进行聚合或j ...

  5. 【高德地图API】从零开始学高德JS API(二)地图控件与插件——测距、圆形编辑器、鼠标工具、地图类型切换、鹰眼鱼骨

    原文:[高德地图API]从零开始学高德JS API(二)地图控件与插件——测距.圆形编辑器.鼠标工具.地图类型切换.鹰眼鱼骨 摘要:无论是控件还是插件,都是在一级API接口的基础上,进行二次开发,封装 ...

  6. 【百度地图API】如何用圆形搜索获取中心点周围100米内全部关键点?如天安门附近所有的餐厅、加油站、宾馆、大厦等

    原文:[百度地图API]如何用圆形搜索获取中心点周围100米内全部关键点?如天安门附近所有的餐厅.加油站.宾馆.大厦等 摘要: 在LBS上有这样一个常用的功能,查找附近所有的关键点(POI点,比如标志 ...

  7. 【Java基础】11、java方法中只有值传递,没有引用传递

    public class Example { String testString = new String("good"); char[] testCharArray = {'a' ...

  8. 【Java基础】4、java中的内部类

    内部类的分类:常规内部类.静态内部类.私有内部类.局部内部类.匿名内部类. 实例1:常规内部类 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 2 ...

  9. 【Spark调优】Kryo序列化

    [Java序列化与反序列化] Java序列化是指把Java对象转换为字节序列的过程:而Java反序列化是指把字节序列恢复为Java对象的过程.序列化使用场景:1.数据的持久化,通过序列化可以把数据永久 ...

随机推荐

  1. git 清空缓冲区

    git rm与git rm --cached 当我们需要删除暂存区或分支上的文件, 同时工作区也不需要这个文件了, 可以使用 git rm file_path git commit -m 'delet ...

  2. github上DQN代码的环境搭建,及运行(Human-Level Control through Deep Reinforcement Learning)conda配置

    最近师弟在做DQN的实验,由于是强化学习方面的东西,正好和我现在的研究方向一样于是我便帮忙跑了跑实验,于是就有了今天的这个内容. 首先在github上进行搜寻,如下图: 发现第一个星数最多,而且远高于 ...

  3. Python之路PythonNet,第四篇,网络4

    pythonnet   网络4 select  支持水平触发 poll       支持水平触发 epoll epoll 也是一种IO多路复用的方式,效率比select和poll 要高一点: epol ...

  4. Pytorch使用多GPU

    在caffe中训练的时候如果使用多GPU则直接在运行程序的时候指定GPU的index即可,但是在Pytorch中则需要在声明模型之后,对声明的模型进行初始化,如: cnn = DataParallel ...

  5. NOI-1.3-11-计算浮点数相除的余数

    11:计算浮点数相除的余数 查看 提交 统计 提问 总时间限制:  1000ms 内存限制:  65536kB 描述 计算两个双精度浮点数a和b的相除的余数,a和b都是正数的.这里余数(r)的定义是: ...

  6. 牛客OI赛制测试赛2

    A题: https://www.nowcoder.com/acm/contest/185/A 链接:https://www.nowcoder.com/acm/contest/185/A来源:牛客网 题 ...

  7. C#线程、前后台线程

    C#线程.前后台线程 本文提供全流程,中文翻译. Chinar 坚持将简单的生活方式,带给世人!(拥有更好的阅读体验 -- 高分辨率用户请根据需求调整网页缩放比例) Chinar -- 心分享.心创新 ...

  8. Gym - 101806T: Touch The Sky(贪心)

    Figure: The house floats up in the sky by balloons. This picture is also used in 2018 KAIST RUN Spri ...

  9. 如何上传本地项目到github

    github作为git的代码托管,而许多大神都在上面托管自己的开源项目.现在,我来记录一下我是如何将本地项目上传到github上. 一.安装git工具(具体方法见百度) 二.配置全局 三.创建.ssh ...

  10. 矩阵快速幂 51nod

    基准时间限制:3 秒 空间限制:131072 KB 分值: 40 难度:4级算法题 收藏 关注 给出一个N * N的矩阵,其中的元素均为正整数.求这个矩阵的M次方.由于M次方的计算结果太大,只需要输出 ...