本文提出了一种在有限硬件资源上实现预训练模型的4位整数(INT4)量化的优化方法,将线性量化任务形式化为最小均方误差(MMSE)问题,并对网络的每一层进行限制MSE问题的优化以及多个量化张量的硬件感知分区,除少量精度降低外,在多种网络架构上实现最先进的结果。
Feb, 2019
通过提出一种惩罚体系惩罚大位长表示的正则化方法,我们可以在维持准确性的同时,在任意合适的层次上最小化推理位长。
Feb, 2020
我们提出了一种可微的联合剪枝和量化(DJPQ)方案,将神经网络压缩视为联合基于梯度的优化问题,在模型剪枝和量化之间自动地进行权衡,以实现硬件效率,相比之下,我们的方法使用户能够在单个培训过程中找到两者之间的最佳权衡。
Jul, 2020
本论文提出了一个用于分析全量化训练算法的统计框架,并探讨了梯度量化对其收敛性的影响。作者开发了两个新的梯度量化器,并展示了这些量化器相对于现有的每个张量量化器具有更小的方差。
Oct, 2020
HAWQV3 提出了一种新型的混合精度整数量化框架,通过纯整数运算、硬件感知混合精度量化和直接硬件部署方法,实现了模型压缩和量化加速,其中 INT8 量化的准确率比之前的整数方法提高了2.68%,同时混合精度的 INT4/8 量化可以将 INT8 的延迟降低23%且仍能保持76.73%的准确率。
Nov, 2020
本研究提出每个张量维度内小向量的单独比例因子缩放技术以降低量化相关的精度损失,有效提高了卷积神经网络的推理准确性并在深度学习加速器硬件设计上实现了硬件效率的提高和能源消耗的降低。
Feb, 2021
本文提出了 Bit-Mixer 方法,为高度精准预测训练多量化层的混合精度网络,在测试期间任何层都可以改变自己的比特宽度,并通过“转换批量归一化”和3阶段优化,展示了网络的训练过程以及具有理想的灵活性属性的混合精度网络可供设备部署,不会影响推断准确度。
Mar, 2021
本文开发了首个使用8位统计量进行训练的优化器,采用了分块动态量化进行加速,同时结合了非线性优化和嵌入层技术以提高精度和稳定性,并在一系列任务中展现了较高的性能和较小的内存占用。
Oct, 2021
提出了一种硬件意识的量化网络参数化方法——量化感知微调(QFT),可以通过联合端对端微调实现一步到位的量化,获得与最优结果相当的4位权重量化结果。
Dec, 2022
通过轻量级的基于梯度的搜索方法和硬件感知的方式,结合稀疏化和混合精度量化的优化技术,在减小延迟和内存占用方面获得Pareto最优的准确性与成本(即延迟或内存)之间的深度神经网络。
Jul, 2024