深度网络的损失感知权重量化
本文提出了一种基于梯度下降优化的深度神经网络压缩的精细化量化方法,通过在不同结构、层次上采用不同的精度,达到更好的压缩比和准确率的平衡。实验结果表明,与传统量化方法相比,该方法在相同压缩率下表现更优。
Oct, 2018
通过使用带有 K 个条目的码簿进行实值权重的量化,我们提出了一种新方法,该方法基于模型压缩作为约束优化框架,交替进行连续权重的网络学习和权重量化(或二值化 / 三值化)的步骤,以便在量化网络的损失上收敛到局部最优解。
Jul, 2017
本篇研究提出了一种新型的三值神经网络训练方法,使用删节高斯近似法将重量三值化的阈值合并到封闭形式的表示中,同时优化重量和量化器,在 Imagenet 分类任务中实现了与完全精度相比仅有的 3.9/2.52/2.16% 的精度下降。
Oct, 2018
本文提出一种名为 “Weight Fixing Networks” 的新方法,通过结合多种技巧,如无损全网络量化、聚类代价等,旨在实现压缩深度学习模型中唯一参数数量的最小化,实验证明该方法优于现有压缩方法。
Oct, 2022
本文提出了一种迭代的量化技术,将权重量化和完整精度权重的重新训练结合起来,以达到高压缩比和减少量化损失,同时证明该方法能够有效地利用剪枝等其他模型压缩技术,实现在 PTB 数据集上使用 1-bit 量化重量的 LSTM 模型,减少了硬件资源需求但不会降低准确性。
May, 2018
本文研究发现深度神经网络在训练时即使将权重量化并投影为二进制表示也能取得优秀的性能,而在测试阶段,这些网络对于除量化以外的扭曲,包括加性和乘性噪声以及一类非线性投影具有显著的鲁棒性。此外,我们还发现基本水平的鲁棒性可以通过调整或删除一个通用的训练启发式(即在反向传播过程中投影量化权重)来实现,包括使用其他类型的权重投影和简单地剪裁权重。最后,我们提出了一种随机投影规则,实现了无数据增强条件下 CIFAR-10 中 7.64% 的测试错误率的最新记录。
Jun, 2016
本文提出了两种新的网络量化方法,即高位量化的单层网络量化(SLQ)和极低位量化(三元)的多层网络量化(MLQ),两种方法均在有效利用深度信息方面表现出色。
Mar, 2018
本研究提出了一种基于 Hessian-weighted k-means clustering 和 ECSQ 的网络量化方案,以在达到压缩比约束的前提下最小化网络量化的性能损失,并进行了 LeNet,32 层 ResNet 和 AlexNet 的压缩实验。
Dec, 2016
本文介绍了一种基于训练的三元量化方法,该方法可帮助在移动设备上部署具有限功率预算的神经网络模型,该方法在降低权重精度的同时保持高准确性,并通过实验表明该模型在 CIFAR-10 和 ImageNet 上的性能优于传统方法。
Dec, 2016