0. 引子 在训练轻量化模型时,经常发生的情况就是,明明 GPU 很闲,可速度就是上不去,用了多张卡并行也没有太大改善. 如果什么优化都不做,仅仅是使用nn.DataParallel这个模块,那么实测大概只能实现一点几倍的加速(按每秒处理的总图片数计算),不管用多少张卡.因为卡越多,数据传输的开销就越大,副作用就越大. 为了提高GPU服务器的资源利用率,尝试了一些加速的手段. 基于Pytorch1.6.0版本实现,官方支持amp功能,不再需要外部apex库: 此外比较重要的库是Dali. 梳理了