当出现Kafka单个分区数据量很大,但每个分区的数据量很平均的情况时,我们往往采用下面两种方案增加并行度: l 增加Kafka分区数量 l 对拉取过来的数据执行repartition 但是针对这种情况,前者的改动直接影响所有使用消费队列的模型性能,后者则存在一个shuffle的性能消耗.有没有既不会发生shuffle,又能成倍提升性能的方法呢? /* 推荐使用Scala的并行集合: 在上述场景中存在的情况是,单核数据量很大,但是又由于分区数量限制导致多核无法分配到数据.因此如果使用forea…
1.创建映射 1)创建不可变的映射 scala> val status = Map(1 -> "a",2 -> "b") status: scala.collection.immutable.Map[Int,String] = Map(1 -> a, 2 -> b) scala> val status = Map((1,"a"),(2,"b")) status: scala.collecti…