Aug, 2019

可微软量化:架起全精度和低比特神经网络的桥梁

TL;DR本研究提出了Differentiable Soft Quantization(DSQ)来解决低位量化的不稳定训练和性能降低问题,通过在训练过程中逐渐逼近标准量化值,可以帮助追求精确的反向传播和减少正向传递中的量化损失,同时能在ARM架构的设备上实现2到4位DSQ,并且与现有高性能推理框架相比,速度提高了1.7倍。