Spark是一个基于内存的分布式计算框架,运行在其上的应用程序,按照Action被划分为一个个Job,而Job提交运行的总流程,大致分为两个阶段: 1.Stage划分与提交 (1)Job按照RDD之间的依赖关系是否为宽依赖,由DAGScheduler划分为一个个Stage,并将每个Stage提交给TaskScheduler: (2)Stage随后被提交,并由TaskScheduler将每个stage转化为一个TaskSet: 2.Task调度与执行:由TaskScheduler负责将TaskSe…