Sep, 2019

Additive Powers-of-Two Quantization: 一种高效的非均匀化离散化神经网络方法

TL;DR本研究提出一种高效的非均匀量化方案,称为APoT quantization,该方案能够更好地匹配神经网络中权重和激活的分布,通过重新参数化剪裁函数来生成更好定义的梯度,并提供了一种细化权重分布的权重归一化方法,以使训练更加稳定和一致。实验结果表明,该方法胜过现有最先进方法,并且在ImageNet数据集上,经过4位量化的ResNet-50模型,准确率达到76.6%,同时与均匀量化模型相比,模型计算成本降低了22%。