一.下载解压 二.配置 (假设已经配置了Java.Hadoop) 1.环境变量 2.spark配置 进入spark安装目录,复制文件 编辑spark-env.sh文件,在文件中添加如下信息(括号中路径为Hadoop的路径),有了下面的配置信息以后,Spark就可以把数据存储到Hadoop分布式文件系统HDFS中,也可以从HDFS中读取数据.如果没有配置上面信息,Spark就只能读写本地数据,无法读写HDFS数据. 3.运行自带案例 接下来会出现版一大堆信息 4.启动spark(没有启动Hadoo