1.驱动程序通过一个SparkContext对象来访问Spark,此对象代表对计算集群的一个连接.shell已经自动创建了一个SparkContext对象.利用SparkContext对象来创建一个RDD 2.spark和mapreduce区别 mapreduce分为两个阶段map和reduce,两个阶段结束mapreduce任务就结束,所以在在一个job里能做的处理很有限即只能在map和reduce里处理. spark是迭代式计算模型,一个job可以分为n个阶段,因为它是内存迭代式的,我们处理…