如果要全面的使用spark,你可能要安装如JDK,scala,hadoop等好些东西.可有时候我们只是为了简单地安装和测试来感受一下spark的使用,并不需要那么全面.对于这样的需要,我们其实只要安装好JDK,然后下载配置spark,两步即可. 本文选择: 1.centos 2.JDK1.8 3.spark2.3 一.JDK安装 spark需要运行在Java环境中,所以我们需要安装JDK. JDK安装配置参考:https://www.cnblogs.com/lay2017/p/7442217.h…