重难点 一.parallelize 方法 一般来说,Spark会尝试根据集群的状况,来自动设定slices的数目.然而,你也可以通过传递给parallelize的第二个参数来进行手动设置. data_reduce = sc.parallelize([1, 2, .5, .1, 5, .2], 1) works = data_reduce.reduce(lambda x, y: x / y) 10.0 data_reduce = sc.parallelize([1, 2, .5, .1, 5, .…