ps:硬件配置其实都是根据实际的情况的,没有说某种配置就可以套在各种场景上 大部分spark 任务都是要到外部存储系统去读取数据源,比如hdfs,hbase等等,让spark计算尽可能近的数据源是很重要的,说白了就是数据本地性.所以这种情况一般都建议部署spark worker节点跟hdfs datanode节点一致.(跟hbase regionserver与hdfs datanode一对一同理的) 比如spark standalone,那么worker节点与datanode一致,spark o…