本次研究对于深度神经网络的量化方法进行综述,重点探讨了量化对于模型大小、能量消耗以及在移动设备上的实际应用等方面的影响。
Aug, 2018
该论文提出了一种将低位量化作为可微非线性函数的新方法,并通过该方法实现了神经网络的低位量化,并取得了比现有方法更好的效果。
Nov, 2019
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
本文提出了一种用于深度神经网络(DNN)压缩的联合训练方法,以便同时训练量化器和 DNN,以便量化网络权重和激活,并提高量化模型的预测准确性。在 CIFAR-10 和 ImageNet 数据集上进行的全面实验显示,该方法在各种网络结构上都运行良好,超越了以前的量化方法。
Jul, 2018
本文介绍了一种将 DNN 网络转化为限定精度以充分利用能源高效加速器的简单方法,通过识别通道级分布以减少量化引起的精度损失和最小化所需的图像采样量,在 ImageNet 分类基准测试上通过了 11 个网络的评估,并且不需要微调即可将网络量化为 8 位整数精度。
Oct, 2018
本研究介绍了一种训练低精度神经网络的方法,该方法使用二进制操作代替计算,达到降低内存大小、减少电力消耗的目的。经过 MNIST、CIFAR-10、SVHN、ImageNet 和 Penn Treebank 数据集的测试,结果表明 1 位权重和 2 位激活的量化版本的 AlexNet 能够达到 51% 的准确率,训练过程中也能使用仅有的二进制操作实现损失函数的计算,并在损失部分的代码上进行了优化,使得 QNN 的运行速度能比未优化的 GPU 加速速度快七倍,并且没有影响分类准确性。
Sep, 2016
本文介绍了一种基于训练的三元量化方法,该方法可帮助在移动设备上部署具有限功率预算的神经网络模型,该方法在降低权重精度的同时保持高准确性,并通过实验表明该模型在 CIFAR-10 和 ImageNet 上的性能优于传统方法。
Dec, 2016
该论文提出了一种基于量化的后训练量化流程,无需重新训练即可加速深度神经网络的推理,并得到了在 ImageNet 上 6 位的 Top-1 准确率增加 2.2% 的结果。
Oct, 2022
使用更少的位数表示模型权重和激活,量化降低了内存使用、计算需求和延迟。我们研究了量化神经网络的泛化性质,首先通过理论模型表明了量化作为一种正则化的功能,其次通过与损失函数曲线陡峭度与泛化的相关性的研究,提出了一个近似限制量化模型泛化性的方法,通过在 CIFAR-10、CIFAR-100 和 ImageNet 数据集上对卷积和 Transformer 模型进行超过 2000 次实验进行验证。
Apr, 2024
介绍了现代神经网络中减少计算成本和提高性能的两种量化算法: Post-Training Quantization 和 Quantization-Aware Training。
Jun, 2021