使用 ADMM 进行深度神经网络的渐进剪枝
采用交替方向乘子法(ADMM)的系统性权值剪枝框架解决了深度神经网络中常见的非凸优化问题和稀疏性约束问题,实现了较快的收敛速度和较优的剪枝效果。
Apr, 2018
本文利用交替方向乘子法 (ADMM) 提出了一种深度神经网络 (DNNs) 系统权值剪枝框架,通过约束非凸优化问题,并借助 ADMM 框架对权重剪枝进行有序化处理,以在保持相同测试精度以内的情况下实现更高的压缩率和更快的收敛速率。
Feb, 2018
通过 ADMM(Alternating Direction Methods of Multipliers)方法,本文提出了一种新的基于 DNN 模型的结构压缩框架,实现了在不损失精度的情况下对 Lenet-5,AlexNet 和 ResNet-50 模型分别达到 246x,36x 和 8x 的权重剪枝,并且在 AlexNet(ImageNet)中 61x 的权重剪枝只导致了细微精度下降,还引导出了重要的基于 ResNet 和 MobileNet 模型的权重剪枝结果以及全层次二进制化的 LeNet-5 和 ResNet 等。
Mar, 2019
研究对于 DNN 模型的压缩有两类深入了解,如权重修剪和量化;文章研究提出了第一个基于 ADMM 的 DNN 算法硬件协同优化框架 ADMM-NN,该框架可以最大化的提高优化性能以达到更高的 DNN 模型压缩比,并且在不损失准确性的情况下可以达到比以往更好的性能。
Dec, 2018
本文利用优化理论中的交替方向乘法器方法,发展了深度神经网络权重剪枝和聚类 / 量化的统一、系统的框架,旨在充分利用冗余,提高 DNN 性能。我们采用多种技术来进一步提高这一框架的性能,并实现了在 LeNet-5、AlexNet 和 VGGNet 等模型上的显著改善。
Nov, 2018
提出了一个系统性的结构裁剪框架来优化 DNNs,使用随机梯度下降和 ADMM,可以以更高的加速度进行优化,即使在一些有损准确性的情况下,模型的压缩率也能达到 15.0 倍。
Jul, 2018
通过 ADMM 算法的系统框架,延伸了基于 ADMM 的神经网络权重量化方法,提出了一种逐步递进的神经网络权重量化方法,可实现更进一步的权重量化,并通过实验证明了优越的性能。
May, 2019
提出一种融合 ADMM 算法和滤波器和列剪枝技术的 DNN 框架,包括网络净化和未使用通路去除算法,可在 LeNet-5、ResNet-18 CIFAR-10 和 AlexNet 上实现 232 倍、60 倍和 5 倍的压缩,以减少 DNN 框架资源的高计算和大内存存储的挑战。
Apr, 2019
本文提出了一种基于交替方向乘法器的快速最优权重更新算法来修剪大型语言模型,配合简单的迭代修剪掩码选择,在广泛范围的大型语言模型中实现了最先进的剪枝性能。
Jan, 2024
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023