背景 做过数据清洗ETL工作的都知道,行列转换是一个常见的数据整理需求.在不同的编程语言中有不同的实现方法,比如SQL中使用case+group,或者Power BI的M语言中用拖放组件实现.今天正好需要在pyspark中处理一个数据行列转换,就把这个方法记录下来. 首先明确一下啥叫行列转换,因为这个叫法也不是很统一,有的地方叫转置,有的地方叫透视,不一而足.我们就以下图为例,定义如下: 从左边这种变成右边这种,叫透视(pivot) 反之叫逆透视(unpivot) Spark实现 构造样本数据…