量化神经网络的训练:深入理解
本研究介绍了一种训练低精度神经网络的方法,该方法使用二进制操作代替计算,达到降低内存大小、减少电力消耗的目的。经过MNIST、CIFAR-10、SVHN、ImageNet和Penn Treebank数据集的测试,结果表明1位权重和2位激活的量化版本的AlexNet能够达到51%的准确率,训练过程中也能使用仅有的二进制操作实现损失函数的计算,并在损失部分的代码上进行了优化,使得QNN的运行速度能比未优化的GPU加速速度快七倍,并且没有影响分类准确性。
Sep, 2016
本文概述了卷积神经网络量化技术,研究发现通过对权重和激活进行逐通道和逐层量化,即使在不支持8位运算的情况下,将权重量化为8位可以将模型大小降低4倍,并且分类的准确率可以达到浮点型卷积神经网络的98%。作者介绍了针对CPU和DSP的量化网络的等待时间基准测试,并观察到相比于CPU上的浮点运算,量化实现的速度提高了2倍至3倍。作者提出了一种通过TensorFlow和TensorFlowLite进行卷积网络量化的工具,并回顾了用于量化训练的最佳实践。作者建议,对于硬件加速和内核优化,应将逐通道量化的权重和逐层量化的激活作为首选量化方案,并提议未来处理器和硬件加速器用于优化推断时支持4、8和16位的精度。
Jun, 2018
本文提出了一种用于深度神经网络(DNN)压缩的联合训练方法,以便同时训练量化器和DNN,以便量化网络权重和激活,并提高量化模型的预测准确性。在CIFAR-10和ImageNet数据集上进行的全面实验显示,该方法在各种网络结构上都运行良好,超越了以前的量化方法。
Jul, 2018
使用标准反向传播和梯度下降法提出了一种对均匀对称量化器进行训练阈值(TQT)的方法,能够以8位量化重新训练不到5次即可在MobileNets等传统难度网络上实现接近浮点精度的分类性能。
Mar, 2019
利用平均场技术对具有量化激活的网络进行评估,推导了最大化信号传播的初始值设定方案,进一步得到了一个NP难度问题的解决办法,从而在神经网络中优化了量化和深度之间的权衡关系。
Jun, 2019
本论文提出了一个用于分析全量化训练算法的统计框架,并探讨了梯度量化对其收敛性的影响。作者开发了两个新的梯度量化器,并展示了这些量化器相对于现有的每个张量量化器具有更小的方差。
Oct, 2020
本文旨在综述深度神经网络计算中数值量化的方法和优缺点,囊括了使用固定整数值的优点、及降低4x到8x等现实应用中的实际结果,以及占用更少的内存和降低延迟的潜力。
Mar, 2021
本文提出了一种新的基于element-wise gradient scaling的量化网络的训练方法,该方法可以更好地解决量化误差问题,提高在有限硬件资源情况下深度神经网络的稳定性和准确性。
Apr, 2021
本文研究神经网络的量化问题,发现在低比特率下,深度可分离网络(如MobileNets,EfficientNets)量化训练中,量化权重可能出现意外震荡,导致在推断过程中统计错误、在训练过程中增加噪声,进而显著降低准确性。作者提出了两种新的QAT算法,分别是自适应调节震荡和迭代冻结权重,相较已有算法都表现出了更好的效果。
Mar, 2022