May, 2017

利用精细量化的三元神经网络

TL;DR本文提出了一种精细的量化方法(Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为8位和4位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最小分类精度损失。该方法可用于Resnet-101和Resnet-50等模型,可以消除75%的乘法运算,从而实现完整的8/4位推理管道,并在ImageNet数据集上实现最佳报告精度,性能提升潜力高达9倍。最终的量化模型可以在全精度模型的基础上提高15倍的性能。