介绍了现代神经网络中减少计算成本和提高性能的两种量化算法: Post-Training Quantization 和 Quantization-Aware Training。
Jun, 2021
采用离散约束优化问题和二阶泰勒展开,提出了解决深度神经网络中多精度量化问题的一种高效算法,并在 ImageNet 数据集和各种网络体系结构上得出了比现有方法更优的结果。
Oct, 2021
本篇论文研究了深度神经网络的低精度模型的训练方法,探讨了在小型设备上训练深度神经网络的难点,提出了一种理论视角下的量化训练方法,并探索了非凸问题下的算法行为模型。
Jun, 2017
卷积神经网络(CNN)的能效和内存占用取决于权重量化策略和映射,通过启用丰富的混合量化方案,我们可以找到更有效利用硬件资源的映射,从而在精度、能耗和内存要求之间取得更好的平衡。通过扩展 Timeloop 工具,提出了一种高效的多目标优化算法,实证了该方法在两种 CNN 和两种加速器上的有效性,并证明了相对于未经精心优化的 CNN 实现,可以实现高达 37% 的能量节省,而无需降低精度。
Apr, 2024
本文概述了卷积神经网络量化技术,研究发现通过对权重和激活进行逐通道和逐层量化,即使在不支持 8 位运算的情况下,将权重量化为 8 位可以将模型大小降低 4 倍,并且分类的准确率可以达到浮点型卷积神经网络的 98%。作者介绍了针对 CPU 和 DSP 的量化网络的等待时间基准测试,并观察到相比于 CPU 上的浮点运算,量化实现的速度提高了 2 倍至 3 倍。作者提出了一种通过 TensorFlow 和 TensorFlowLite 进行卷积网络量化的工具,并回顾了用于量化训练的最佳实践。作者建议,对于硬件加速和内核优化,应将逐通道量化的权重和逐层量化的激活作为首选量化方案,并提议未来处理器和硬件加速器用于优化推断时支持 4、8 和 16 位的精度。
Jun, 2018
本文介绍了混合精度框架优化技巧的现有文献,并对常用的量化技巧进行了总结,其中部分框架运用的优化技巧为强化学习和确定性舍入,文章讨论了每种框架的优点和缺陷,并且为未来的混合精度框架提供了指导。
Aug, 2022
本文介绍了量化技术如何减小深度神经网络的规模,提高推理延迟和吞吐量,并评估它们在各种应用领域的不同神经网络模型上的选择,包括视觉、语音和语言等方面,并重点介绍适用于高吞吐量整数数学流水线处理器加速的量化技术。同时,还提供了一种 8 位量化工作流,能够在所有研究的网络上保持 1% 的浮点基线精度,包括更难量化的模型,如 MobileNets 和 BERT-large。
Apr, 2020
本研究提出了第一种实用的 4 位后训练量化方法,不涉及训练经过量化模型(微调),也不需要完整数据集的可用性。我们针对激活和权重的量化提出了三种互补方法,以在张量层面上最小化量化误差,并取得了几个百分点少于各种卷积模型现有技术水平基准值的准确性。
Oct, 2018
该论文提出了一种基于量化的后训练量化流程,无需重新训练即可加速深度神经网络的推理,并得到了在 ImageNet 上 6 位的 Top-1 准确率增加 2.2% 的结果。
Oct, 2022
在这篇论文中,我们首次对 Post-Training Quantization 和 Quantization-Aware Training 的设置下,能够将鲁棒性优化纳入其中的量化流水线组件的影响进行了深入研究分析。通过我们的详细分析,我们发现不同研究中使用的不同流水线导致了这种不一致性,具体涉及是否执行鲁棒优化以及在哪个量化阶段执行。我们的研究结果为部署更安全、更鲁棒的量化网络提供了洞察,帮助从业者在高安全要求和有限资源的情况下进行参考。