- 高效神经压缩与推理时间解码
通过混合精度量化、零点量化和熵编码将 Resnets 的压缩边界推进到 1 位以外,在 ImageNet 基准测试中准确度下降不超过 1%。
- 量化对神经网络感知的影响:量化如何改变视觉模型的感知领域?
本研究探讨了量化对视觉模型的感知领域特征,尤其是类别激活图(CAMs)的影响,并通过对六种不同 CNN 模型进行系统的量化技术评估,揭示了 CAMs 与人类视觉显著性图之间的对齐问题和不同模型对量化的敏感性,为实际应用中的模型性能和可解释性 - GPTVQ: LLM 量化的维度福祉
在这项研究中,我们展示了通过增加量化维度可以显著改善神经网络量化的大小和准确性之间的权衡。我们提出了 GPTVQ 方法,一种新的快速方法,用于对大型语言模型(LLMs)进行训练后的向量量化(VQ),并在多列的量化和未量化权重更新之间交错使用 - 量化近似正交递归神经网络
针对计算能力有限的设备,本文研究了正交循环神经网络(ORNNs)的量化问题,并提出了通过后训练量化和量化感知训练方法来实现量化正交 RNNs(QORNNs),实验结果表明量化感知训练比后训练量化更有效,最高效的模型在各种标准测试中达到与精确 - AAAI网络量化的特征量化蒸馏
神经网络量化是通过使用低比特近似来加速和剪裁全精度神经网络模型的过程。本文提出了一种新颖且高效的量化感知训练方法,即量化特征蒸馏(QFD),通过首先训练一个量化(或二值化)的教师表示,然后使用知识蒸馏(KD)来量化网络。定量结果表明,QFD - 通过混合精度补偿实现无数据量化,无需微调
本文提出了一种数据自由的混合精度补偿方法,通过数学公式对预训练的全精度模型和其逐层混合精度量化模型之间的重构损失进行最小化,无需任何数据和微调过程即可实现超低精度量化模型的更高精度。
- 超低均匀精度量化的自动网络适应
该论文提出了一种神经网络架构搜索方法 —— 神经通道扩展,该方法可以适应不同层对于量化误差的敏感度,并在满足硬件约束的情况下,有选择性地扩展量化敏感的层的通道数,从而实现在 CIFAR10 和 ImageNet 数据集上的 2 位量化最佳精 - ICLRF8Net: 仅限定点 8 位乘法用于网络量化
F8Net 是一种完全由固定点 8 位乘法构成的量化框架,可以降低神经网络量化模型与完全精度模型之间的性能差距,并显著降低内存占用和能源消耗。
- AI 模型效能工具包 (AIMET) 在神经网络量化中的应用
本文介绍了使用 AI Model Efficiency Toolkit (AIMET) 进行神经网络量化的概述,其中 AIMET 包括多种基于 PyTorch 和 TensorFlow 的后训练量化和量化感知训练技术,可保证 8 位定点推理 - MM基于量化的分层联邦学习:收敛分析与系统设计
本文针对分层联邦学习问题,引入神经网络量化,提出了一种更加严格的收敛界限,优化客户端和边缘云多级聚合策略,同时借助仿真结果验证了策略的有效性。
- AAAI量化网络的改进梯度对抗攻击
本文研究了神经网络量化模型的鲁棒性问题,并发现其在面对基于梯度的对抗攻击时存在梯度消失的问题,提出一种简单的温度缩放方法以减轻该问题,该方法在多个数据集与网络结构上表现出比现有方法更好的性能表现。
- ECCV生成式低比特宽度无数据量化
本文提出了一种简单而有效的方法,叫做生成式低比特数据无关量化 (GDFQ),通过使用预训练模型中的分类边界知识和分布信息,利用知识匹配生成器生成有意义的虚假数据,从而消除数据依赖负担,来量化模型。在三个数据集上的广泛实验证明了本方法的有效性 - 鲁棒量化:一模型掌控全局
本文提出了一种基于理论论证的神经网络量化方法,实现了针对多种数据类型和量化策略下模型鲁棒性的内在鲁棒性,能够存储一种通用模型并在不同的位宽和量化策略下进行操作,并在不同的 ImageNet 模型中验证了该方法的有效性。
- 有损后训练量化
研究神经网络量化对损失函数的结构的影响,证明在轻量量化时,损失函数的结构是平坦且可分离的,从而使得一些简单的后量化方法能够获得良好的结果。同时,提出了一种通过同时量化层参数来提高精度的方法。
- 神经网络的低位量化以提高推理效率
本文提出了一种在有限硬件资源上实现预训练模型的 4 位整数(INT4)量化的优化方法,将线性量化任务形式化为最小均方误差(MMSE)问题,并对网络的每一层进行限制 MSE 问题的优化以及多个量化张量的硬件感知分区,除少量精度降低外,在多种网 - QGAN: 量化生成对抗网络
本文研究了如何在仿射神经网络中量化生成对抗神经网络并提出了一种基于 EM 算法的 QGAN 方法方法,同时还提出了一种多精度算法,可帮助找到量化 GAN 模型的最佳位数以及相应的结果质量。实验结果表明,QGAN 可将 GAN 量化为 1/2 - 通过固定和动态量化激活函数来防御深度神经网络对抗性示例
本研究发现神经网络量化和抵御对抗攻击这两条不同的路线可以合并,提出了动态量化激活方法以训练鲁棒神经网络,并在 MNIST 和 CIFAR-10 数据集上的广泛实验证明了该方法能够有效提高深度神经网络的鲁棒性。