模型压缩 为了将tensorflow深度学习模型部署到移动/嵌入式设备上,我们应该致力于减少模型的内存占用,缩短推断时间,减少耗电.有几种方法可以实现这些要求,如量化.权重剪枝或将大模型提炼成小模型. 在这个项目中,我使用了 TensorFlow 中的量化工具来进行模型压缩.目前我只使用权重量化来减小模型大小,因为根据 Mac 上的测试结果,完整 8 位转换没有提供额外的好处,比如缩短推断时间.(由于 requant_range 中的错误,无法在 Pixel 上运行完整的 8 位模型).由于 8