Spark集群基础概念 与 spark架构原理
一、Spark集群基础概念
将DAG划分为多个stage阶段,遵循以下原则:
1、将尽可能多的窄依赖关系的RDD划为同一个stage阶段。
2、当遇到shuffle操作,就意味着上一个stage阶段结束,下一个stage阶段开始
关于RDD中的分区,在默认情况下(也就是未指明分区数的情况)
1、如果从HDFS中读取数据创建RDD,在默认情况下
二、spark架构原理
1、Spark架构原理
Driver 进程
编写的Spark程序就在Driver上, 由Driver进程执行。
Driver可以是Spark集群的节点之一, 或者是提交Spark程序的机器
Master 进程
主要负责资源的调度和分配, 以及集群的监控等职责
Worker 进程
主要职责有两个:
用自己所在节点的内存存储RDD的partition
启动其他进程和线程, 对RDD的partition进行并行计算处理
Executor 进程
Executor接收到task之后, 会启动多个线程来执行task
task 线程
task会对RDD的partition数据执行指定的算子操作, 形成新RDD的 partition
小结:
Executor和task, 其实就是负责执行, 对RDD的partition进行并行的计算, 也就是执行我们对RDD定义的, 比如flatMap、 map、 reduce等算子操作。
2、spark架构
3、spark架构整体流程
4、Spark架构原理剖析
( driver—master——worker——executor—driver 前四步形成闭环 第五步执行程序,读取数据)
第一步:Driver进程启动之后,会做一些初始化的操作;在这个过程中,就会发送请求到master上,进行spark应用程序的注册,说白了,就是让master知道,有一个新的spark应用程序要运行
第二步:master,在接收到了spark应用程序的注册申请之后,或发送请求给worker,进行资源的调度和分配,OK,说白了资源分配就是executor的分配
第三步:worker接收到master的请求之后,会为spark应用启动executor
第四步:executor启动之后,会向Driver进行反注册,这样,Driver就知道哪些executor是为它进行服务的了
第五步:Driver注册了一些executor之后,就可以开始正式执行我们的spark应用程序了,首先第一个步就是创建初始RDD,读取数据源
第六步:RDD的分区数据放到内存中
第七步:Driver会根据我们对RDD定义的操作,提交一大堆task去executor上
第八步:task会对RDD的partition数据执行指定的算子操作,形成新的RDD的partition
5、spark架构原理深度剖析(Standalong模式)
1、
通过spark-submit指令将打好的Spark jar包提交到Spark集群中运行。
先从Driver进程开始运行,Driver中包含了我们所编写的代码。
首先执行代码中的前两句,
val conf=new SparkConf().setAppName("AppOperate")
.setMaster("local")
val sc=new SparkContext(conf)
创建SparkConf和SparkContext对象,
在创建SparkContext对象的过程中,会去做两件很重要的事,就是
创建DAGScheduler和TaskScheduler这两个对象。
然后,TaskScheduler会通过一个后台进程负责与Master进行注册通信,
告诉Master有一个新的Application应用程序要运行,需要Master管理
分配调度集群的资源。
2、Master接收到TaskScheduler的注册请求之后,会通过资源调度算法对
集群资源进行调度,并且与Worker进行通信,请求Worker启动相应的Executor
3、Worker接收到Master的请求之后,会在本节点中启动Executor。
因为集群中有多个Worker节点,那么也意味着会启动多个Executor。
一个Application对应着Worker中的一个Executor。
4、Executor启动完成之后,会向Driver中的TaskScheduler进行反注册,
反注册的目的就是让Driver知道新提交的Application应用将由哪些Executor
负责执行。
5、Executor向Driver中的TaskScheduler反注册完成之后,就意味
着SparkContext的初始化过程已经完成,接下来去执行SparkContext
下面的代码。
6、
在SparkContext下面的代码中,创建了初始RDD,并对初始RDD进行了
Transformation类型的算子操作,但是系统只是记录下了这些操作行为,
这些操作行并没有真正的被执行,直到遇到Action类型的算子,触发
提交job之后,Action类型的算子之前所有的Transformation类型的
算子才会被执行。
job会被提交给DAGScheduler,DAGScheduler根据stage划分算法将
job划分为多个stage(阶段),并将其封装成TaskSet(任务集合),
然后将TaskSet提交给TaskScheduler。
7、TaskScheduler根据task分配算法,将TaskSet中的每一个小task分配
给Executor去执行。
8、Executor接受到task任务之后,通过taskrunner来封装一个task,
并从线程池中取出相应的一个线程来执行task。
task线程针对RDD partition分区中的数据进行指定的算子操作,
这些算子操作包括Transformation和Action类型的操作。
补充说明:
1)taskrunner(任务运行器),会对我们编写代码进行复制、反序列化
操作,进行执行task任务。
2)task分为两大类:ShuffleMapTask和ResultTask。最后一个stage
阶段中的task称为ResultTask,
在这之前所有的Task称为ShuffleMapTask。
整个过程用到3个算法(资源调度算法、stage划分算法、task分配算法)
stage划分算法:会从执行action的最后一个RDD开始往前推,首先会为最后一个RDD创建一个stage,然后继续往前推,如果遇到一个宽依赖,就会为这个宽依赖创建一个stage。以此类推
Spark集群基础概念 与 spark架构原理的更多相关文章
- Database基础(七):部署集群基础环境、MySQL-MMM架构部署、MySQL-MMM架构使用
一.部署集群基础环境 目标: 本案例要求为MySQL集群准备基础环境,完成以下任务操作: 数据库授权 部署MySQL双主多从结构 配置本机hosts解析记录 方案: 使用4台RHEL 6虚拟机,如下图 ...
- Spark集群环境搭建——部署Spark集群
在前面我们已经准备了三台服务器,并做好初始化,配置好jdk与免密登录等.并且已经安装好了hadoop集群. 如果还没有配置好的,参考我前面两篇博客: Spark集群环境搭建--服务器环境初始化:htt ...
- 四、spark集群架构
spark集群架构官方文档:http://spark.apache.org/docs/latest/cluster-overview.html 集群架构 我们先看这张图 这张图把spark架构拆分成了 ...
- 大数据技术之_19_Spark学习_01_Spark 基础解析 + Spark 概述 + Spark 集群安装 + 执行 Spark 程序
第1章 Spark 概述1.1 什么是 Spark1.2 Spark 特点1.3 Spark 的用户和用途第2章 Spark 集群安装2.1 集群角色2.2 机器准备2.3 下载 Spark 安装包2 ...
- zhihu spark集群,书籍,论文
spark集群中的节点可以只处理自身独立数据库里的数据,然后汇总吗? 修改 我将spark搭建在两台机器上,其中一台既是master又是slave,另一台是slave,两台机器上均装有独立的mongo ...
- spark集群搭建整理之解决亿级人群标签问题
最近在做一个人群标签的项目,也就是根据客户的一些交易行为自动给客户打标签,而这些标签更有利于我们做商品推荐,目前打上标签的数据已达5亿+, 用户量大概1亿+,项目需求就是根据各种组合条件寻找标签和人群 ...
- Spark 个人实战系列(1)--Spark 集群安装
前言: CDH4不带yarn和spark, 因此需要自己搭建spark集群. 这边简单描述spark集群的安装过程, 并讲述spark的standalone模式, 以及对相关的脚本进行简单的分析. s ...
- spark集群搭建(三台虚拟机)——hadoop集群搭建(2)
!!!该系列使用三台虚拟机搭建一个完整的spark集群,集群环境如下: virtualBox5.2.Ubuntu14.04.securecrt7.3.6_x64英文版(连接虚拟机) jdk1.7.0. ...
- spark集群安装配置
spark集群安装配置 一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoo ...
随机推荐
- C++操作符优先级带来的错误
在刷LeetCode题目:190. 颠倒二进制位:颠倒给定的 32 位无符号整数的二进制位时,可以利用左移和右移操作符来实现数字翻转: 错误解法: class Solution { public: u ...
- info信息的获取
一.绝对路径(_SERVER[“SCRIPT_FILENAME”])这个是最常用,也是最有效的一个办法,找到phpinfo()页面可以直接找到网站的绝对路径,对于写shell和信息搜集是必不可少的.二 ...
- Jmeter接口测试(三)接口测试实践
Jmeter 脚本编写一般分五个步骤: 1. 添加线程组 2. 添加 http 请求 3. 在 http 请求中写入接入 url.路径.请求方式和参数 4. 添加查看结果树 5. 调用接口.查看返回值 ...
- K8S-RedisCluster搭建
简介 Redis-Cluster采用无中心结构,每个节点保存数据和整个集群状态,每个节点都和其他所有节点连接, mastart节点之间存放的数据并不是相同的,只是其中的一部分,当我们请 ...
- lxd&openstack-lxd源码剖析
lxd:https://linuxcontainers.org/lxd/,目标是融入到openstack体系被管理,像虚拟机一样被管理使用.从如下图可知,并非走的是libvirt-lxc路线,而是no ...
- JAVA学习笔记--简介几个常见关键字static、final、this、super
一.static static(静态的),可以放在类.方法.字段之前. 通常,当创建类时,就是在描述那个类的外观与行为.除非用 new 创建那个类的对象,否则,实际上并未获得任何对象.执行 new 来 ...
- python3【基础】-and和or的短路逻辑
1. 表达式只有一个逻辑运算符 python中哪些对象会被当成False,哪些又是True呢? 基本数据类型中的None.任何数值类型中的0.空字符串"",空列表[],空元组()和 ...
- 使用git提交代码的一些小心得
1.不进行push不能运行的代码,如果需要提交,可以先注释,保证其他人pull时,可以得到能够正常使用的代码 2.每做完一件事,写一条描述,一次提交.不要等写了一堆代码,然后写一堆描述,这样如果需要查 ...
- prototype.js中Function.prototype.bind方法浅解
prototype.js中的Function.prototype.bind方法: Function.prototype.bind = function() { var __method = this; ...
- C 语言疑难杂症 [转:http://blog.chinaunix.net/uid-20688544-id-1894880.html]
无聊在网上找了些C语言的东东练一下手,竟然发现其实还有好多细节之前,没注意到,该好好复习一下先. 解决掉的问题先不发出来,把疑问的先做个笔记,过几天解决了就回来修改补上. #include < ...