1.spark提交流程

  sparkContext其实是与一个集群建立一个链接,当你停掉它之后
  就会和集群断开链接,则属于这个资源的Excutor就会释放掉了,Driver
  向Master申请资源,Master会向work分配资源,则会在wordCount里面会
  构建Rdd,则它会会构建DAG,DAG又叫有向无环图,则有向无环图一旦触发Action
  的时候,这个时候就会提交任务,此时,这些任务就不会经过Master,如果经过Master
  则Master的压力会很大,其实Excutor一旦启动了,它就会向Driver建立连接,Excutor
  它可能存在多个机器上面,则Driver不知道Excutor在哪里,但是Excutor知道Driver
  在哪里(通过Mastre来知道的),则此时Excutor会和Driver进行rpc通信,则此时Driver则会
  提交计算任务(以stage进行分开处理,其中stage里面是一个个并行的task),则
  提交的任务在Excutor里面执行,则在Excutor里面有这些任务的执行进度,则
  Excutor会向这个Master里面汇报进度,Driver就会知道它执行到了哪里,如果
  执行失败,则Driver可能会执行重试,可能会例如,如果有10个项目,其中9个项目  
  都执行完了,但是有一个项目会很慢很慢,则此时Driver会在启动一个项目,
  看这两个项目,谁快就用谁,对于catch,则Excutor只会catch属于它的的分区

  2.rdd缓存

    spark计算特别快的原因,就是在不同的操作中可以在内存中持久化或缓存
    多个数据集

  3.容量的大小

    关于容量大小,一般来说我们可以这样的假设,2个字段,100万条数据,50M,如果要说
    可以往后面一次计算

  4.关于内存分配

    在spark的计算过程中,如果我们的一台worker的内存是2g,但是我们可以给这个work

    启动spark,我可以只给他分1个g的内存,就是说这个worker里面,不管在执行任何操作,

    都只用这1个g的内存

  5.checkpoint(检查点)

    假如在进行rdd的计算的过程中,如果前面计算的结果之后,把这个结果保存在磁盘当中,

    但是磁盘烧了,则此时这个里面的数据就会消失,则此时我们就会从头开始记性计算,

    但是这样又有一些浪费,我们可以设置一个检查点(checkpoint),把某些计算出来的结果

    存在一个地方,当磁盘损坏,我们就可以回退到这些检查点当中,很想快照的意味

    (这个就一般作用于比较复杂的运用,当我们保存这个checkpoint的时候,他会主动的去寻找

    这个checkpoint里面保存的值)我们可以防止检查点的公共存放目录

    sc.setCheckpointDir("hdfs://192.168.109.136:9000/ck2016mypoint"),设置检查点存放的地方
    则我们此时hdfs dfs -ls /,我们就可以发现这个检查点存放的目录

    

    val rdd = sc.textFile("hdfs://192.168.109.136:9000/wj/input19")
    rdd.checkpoint
    rdd.count(运行action)

    则此时回启动两个方法,第一个方法进行计算,另一个方法则把结果写到checkpoint

    写到指定的目录(这个存放checkpoint的地方药可用性高,所以我们采用hdfs),

    则此时把rdd的内容写到checkpoint里面

  6.关于collect,cache,checkpoint的区别

    collect是一个Action类型的RDD,而cache则是,当我们xxx.cache,则这个xxx的rdd在进行

    Action的方法(collect),则会把这个RDD里面的内容缓存进内存,则当我们再一次进行计算的

    时候,则会从内存中进行读取,而checkpoint这个值,这个是把这个rdd的值缓存进入一个公共

    的目录(这个目录要有高的可用性,即使内存中丢失,这个也不会丢失)

spark提交任务的流程的更多相关文章

  1. spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes

    spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes ...

  2. Spark SQL底层执行流程详解

    本文目录 一.Apache Spark 二.Spark SQL发展历程 三.Spark SQL底层执行原理 四.Catalyst 的两大优化 一.Apache Spark Apache Spark是用 ...

  3. Spark源码分析之一:Job提交运行总流程概述

    Spark是一个基于内存的分布式计算框架,运行在其上的应用程序,按照Action被划分为一个个Job,而Job提交运行的总流程,大致分为两个阶段: 1.Stage划分与提交 (1)Job按照RDD之间 ...

  4. spark yarn cluster模式下任务提交和计算流程分析

    spark可以运行在standalone,yarn,mesos等多种模式下,当前我们用的最普遍的是yarn模式,在yarn模式下又分为client和cluster.本文接下来将分析yarn clust ...

  5. Spark源代码分析之中的一个:Job提交执行总流程概述

    Spark是一个基于内存的分布式计算框架.执行在其上的应用程序,依照Action被划分为一个个Job.而Job提交执行的总流程.大致分为两个阶段: 1.Stage划分与提交 (1)Job依照RDD之间 ...

  6. Spark的任务提交和执行流程概述

    1.概述 为了更好地理解调度,我们先看一下集群模式的Spark程序运行架构图,如上所示: 2.Spark中的基本概念 1.Application:表示你的程序 2.Driver:表示main函数,创建 ...

  7. spark 启动job的流程分析

    从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...

  8. Spark streaming的执行流程

    http://www.cnblogs.com/shenh062326/p/3946341.html  其实流程是从这里转载下来的,我只是在流程叙述中做了一下的标注. 当然为了自己能记住的更清楚,我没有 ...

  9. Spark提交任务(Standalone和Yarn)

    Spark Standalone模式提交任务 Cluster模式: ./spark-submit  \--master spark://node01:7077  \--deploy-mode clus ...

随机推荐

  1. Eclipse formater(google Java 编码规范)

    1. 谷歌Java编码规范 http://google-styleguide.googlecode.com/svn/trunk/javaguide.html 2. 下载配置文件: https://co ...

  2. (转)失落的C语言结构体封装艺术

    目录1. 谁该阅读这篇文章 2. 我为什么写这篇文章 3.对齐要求 4.填充 5.结构体对齐及填充 6.结构体重排序 7.难以处理的标量的情况 8.可读性和缓存局部性 9.其他封装的技术 10.工具 ...

  3. Android App Widget的简单使用

    App Widget是一些桌面的小插件,比如说天气和某些音乐播放应用,放到桌面去的那部分: 例如: 实现步骤及代码如下: (1)首先,在AndroidManifest.xml中声明一个App Widg ...

  4. FutureTask 测试用例

    package currentTest.BlockingQueue; import java.util.concurrent.Callable; import java.util.concurrent ...

  5. 2014.7.8模拟赛【笨笨当粉刷匠】|bzoj1296 [SCOI]粉刷匠

    笨笨太好玩了,农田荒芜了,彩奖用光了,笨笨只好到处找工作,笨笨找到了一份粉刷匠的工作.笨笨有n条木板需要被粉刷.每条木板被分成m个格子,每个格子要被刷成红色或蓝色.笨笨每次粉刷,只能选择一条木板上一段 ...

  6. UVA11922--Permutation Transformer (伸展树Splay)

    题意:m条操作指令,对于指令 a  b 表示取出第a~b个元素,翻转后添加到排列的尾部. 水题卡了一个小时,一直过不了样例.  原来是 dfs输出的时候 忘记向下传递标记了. #include < ...

  7. C++类静态成员的初始化和用法探讨

    一.一般类型的类的静态变量 1.首先看下面的代码: class CTest1 { public: static int m_num1; void printNum(){cout << m_ ...

  8. paip.hadoop的应用研究总结

    paip.hadoop的应用研究总结 作者Attilax ,  EMAIL:1466519819@qq.com  来源:attilax的专栏 地址:http://blog.csdn.net/attil ...

  9. c语言通过时间种子产生随机数并选出最大值以及下标

    1 #include <stdio.h> #include <stdlib.h> #include <time.h> //2016 10 10 void main( ...

  10. 第20讲- Spinner与适配器模式

    第20讲 Spinner与适配器模式 使用Spinner相当于从下拉列表中选择项目,Spinner是一个每次只能选择所有项的一个项的控件.它的项来自于与之相关联的适配器中.Spinner的重点问题就是 ...