1.安装jdk(配置JAVA_HOME,CLASSPATH,path) 2.安装scala(配置SCALA_HOME,path) 3.安装spark Spark的安装非常简单,直接去Download Apache Spark.有两个步骤: ● 选择好对应Hadoop版本的Spark版本,如下图中所示: ● 然后点击下图中箭头所指的spark-1.6.2-bin-hadoop2.6.tgz,等待下载结束即可. 这里使用的是Pre-built的版本,意思就是已经编译了好了,下载来直接用就好,Spar…