在深度学习中,量化指的是使用更少的bit来存储原本以浮点数存储的tensor,以及使用更少的bit来完成原本以浮点数完成的计算.这么做的好处主要有如下几点: 更少的模型体积,接近4倍的减少: 可以更快的计算,由于更少的内存访问和更快的int8计算,可以快2~4倍. 一个量化后的模型,其部分或者全部的tensor操作会使用int类型来计算,而不是使用量化之前的float类型.当然,量化还需要底层硬件支持,x86 CPU(支持AVX2).ARM CPU.Google TPU.Nvidia Volta…