通过发现直通渐变法与 Nesterov 双平均算法相同,提出了一种更加合理的替代方法 ProxQuant,将基于量化网络的训练问题转化为规则化学习问题,并通过 Prox - 梯度方法进行优化。对于二元量化,ProxQuant 在稳定性上优于直通渐变法,并提供了一种强有力的替代方法。在将 ResNets 和 LSTMs 量化为二元和多位之后,ProxQuant 能在二元量化上实现优于现有水平的结果,并且在多位量化上与现有技术持平。
Oct, 2018
本文介绍一种可微的量化过程,将连续分布转换为分类型分布,然后通过松弛到连续的代理来实现高效的基于梯度的优化,还展示了随机舍入可理解为所提出方法的一个特例。通过实验证明本方法对于 MNIST、CIFAR 10 和 Imagenet 等各种问题的分类都具有很好的表现.
本文提出了两种新的模型压缩方法:量化蒸馏和可微量化。两种方法在卷积和循环体系结构上的实验结果表明,在资源受限的环境中,量化浅层神经网络可以达到与全精度模型相似的准确性水平,同时提供数量级压缩和推断加速。
Feb, 2018
采用离散约束优化问题和二阶泰勒展开,提出了解决深度神经网络中多精度量化问题的一种高效算法,并在 ImageNet 数据集和各种网络体系结构上得出了比现有方法更优的结果。
Oct, 2021
本研究提出了一种基于 Hessian-weighted k-means clustering 和 ECSQ 的网络量化方案,以在达到压缩比约束的前提下最小化网络量化的性能损失,并进行了 LeNet,32 层 ResNet 和 AlexNet 的压缩实验。
Dec, 2016
本文提出了一种在有限硬件资源上实现预训练模型的 4 位整数(INT4)量化的优化方法,将线性量化任务形式化为最小均方误差(MMSE)问题,并对网络的每一层进行限制 MSE 问题的优化以及多个量化张量的硬件感知分区,除少量精度降低外,在多种网络架构上实现最先进的结果。
Feb, 2019
本研究提出了一种针对神经网络量化的方法,该方法通过量化权重来降低计算成本、内存占用和功耗,并促进权重的稀疏性,使用本方法在 ImageNet 上测试显示准确性的损失很小。
Jan, 2022
通过对权重的重新排列,利用矢量量化方式压缩多层神经网络以在低性能计算平台上运行。在图像分类、目标检测和分割等任务中,相对于现有技术水平,可以将压缩后网络的性能损失降低 40%至 70%。
Oct, 2020
通过使用带有 K 个条目的码簿进行实值权重的量化,我们提出了一种新方法,该方法基于模型压缩作为约束优化框架,交替进行连续权重的网络学习和权重量化(或二值化 / 三值化)的步骤,以便在量化网络的损失上收敛到局部最优解。
Jul, 2017
本文提出了一种使用低精度权重和操作的 DNN 学习方法,利用可学习的正则化系数来加强高精度权重收敛到量化值的能力,并研究了如何通过权重剪枝、量化和熵编码来建立低精度 DNN 压缩管道,实验结果显示该方法可以在 ImageNet 分类和图像超分辨率网络的任务中取得与准确性相对可接受的最新压缩比。
Sep, 2018