本文研究神经网络的量化问题,发现在低比特率下,深度可分离网络(如 MobileNets,EfficientNets)量化训练中,量化权重可能出现意外震荡,导致在推断过程中统计错误、在训练过程中增加噪声,进而显著降低准确性。作者提出了两种新的 QAT 算法,分别是自适应调节震荡和迭代冻结权重,相较已有算法都表现出了更好的效果。
Mar, 2022
该研究提出了一种基于知识蒸馏的变异感知量化方法,可显著提高 Vision Transformers 模型在经过量化的情况下的准确性和训练效率。
Jul, 2023
使用进化搜索方法改进了通过渐进方法进行量化尺度优化的神经网络的性能,特别在极端量化情况下表现出鲁棒性。
Aug, 2023
本文介绍了一种基于信息矫正模块和分布引导蒸馏方案的量化视觉变换器压缩方法,可以在 ImageNet 数据集上实现高达 80.9%的准确性,并且比全精度对应物超过 1.0%的 Top-1 精度。
Oct, 2022
提出了 SmoothQuant with bias term (SQ-b) 和 optimal scaling factor ratio search (OPT-m) 方法以及一种多精度后训练量化框架 (MPTQ-ViT),在 ImageNet 数据集上进行的实验表明,与现有方法相比,所提方法在 4 位和 5 位量化的 ViTs 上均取得了显著的准确度提高。
Jan, 2024
本文研究了量子化网络在边缘设备上的部署问题,提出了一种基于指数移动平均的更新方法和一种纠正振荡误差的简单校正方法,经过大量评估实验证明这些方法能够改善低精度下的 YOLO 网络在目标检测和分割任务上的性能。
Nov, 2023
介绍一种专门用于大规模预训练模型在硬件受限设备上快速部署的量化方法,并提出一种基于可训练缩放因子和排名感知蒸馏的 Binarized ViT 模型。该方法在 ImageNet 等数据集上都取得了较高的 Top-1 准确率,并在 FLOPs 方面获得了显著的理论加速。
May, 2023
本文介绍了一种有效的后训练量化算法,以降低视觉变换器的内存存储和计算成本,并在多个基准模型和数据集上证明了所提出的方法的有效性,在 ImageNet 数据集上使用 DeiT-B 模型可获得约 8 位量化的 81.29% top-1 精度。
Jun, 2021
本文提出了一种低复杂度的量化感知训练方法,以将 4 位序列到序列模型应用于语音识别数据集,并在模型精度方面优于常见的学习比例尺和裁剪方法。
本论文提出了一种名为 BinaryViT 的方法,通过引入梯度正则化方案和激活偏移模块解决了 Vision Transformers 全量二值化所面临的性能降低和信息失真问题,使得其在计算和存储资源受限的设备上也能有更好的运行表现。