May, 2017

利用精细量化的三元神经网络

TL;DR本文提出了一种精细的量化方法 (Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为 8 位和 4 位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最小分类精度损失。该方法可用于 Resnet-101 和 Resnet-50 等模型,可以消除 75% 的乘法运算,从而实现完整的 8/4 位推理管道,并在 ImageNet 数据集上实现最佳报告精度,性能提升潜力高达 9 倍。最终的量化模型可以在全精度模型的基础上提高 15 倍的性能。