一.分析 Spark提供了非常丰富的算子,可以实现大部分的逻辑处理,例如,要实现行转列,可以用hiveContext中支持的concat_ws(',', collect_set('字段'))实现.但是这有明显的局限性[sqlContext不支持],因此,基于编码逻辑或自定义聚合函数实现相同的逻辑就显得非常重要了. 二.列转行代码实现 package utils import com.hankcs.hanlp.tokenizer.StandardTokenizer import org.apach…