通过渐进正则化进行神经剪枝
提出了一种逐步分配不同正则化因子的新型正则化剪枝方法(称为IncReg),可在不影响CNN性能的情况下消除冗余参数,有效性通过与最先进的方法相比较后在流行的CNN上得到证明。
Nov, 2018
我们提出了PruneTrain,这是一种成本高效的机制,可逐步减少训练期间的计算成本,通过使用结构化组套骨骼正则化方法和其他重新配置技术,可以在GPU加速器上高效处理缩小了的卷积神经网络模型,从而实现减少计算成本40%和训练时间39%的效果。
Jan, 2019
本文提出了一种新的可微分的方法来对深度神经网络进行无结构权重修剪。我们的学习阈值修剪(LTP)方法通过梯度下降学习每层的阈值,与传统方法不同。此外,通过一种新的可微分$L_0$正则化,LTP能够有效地处理具有批量归一化的体系结构。LTP能够生成一系列越来越稀疏的网络,从中可以根据稀疏度和性能要求选择所需的修剪网络。
Feb, 2020
本文提出了一种简单而有效的基于数据驱动优化的频道修剪方法,该方法通过每层发现必要的宽度,以非均匀修剪ResNet-50等深度神经网络,实现了与现有方法相同的FLOP降低率,同时提高了0.98%的准确度,并优于其他深度神经网络如ResNet-34和ResNet-18。
May, 2020
这篇论文首次调查了一种新兴的神经网络裁剪方式——在初始化时裁剪(PaI),并介绍了其稀疏训练和稀疏选择两大主要方法。此外,该论文还提供了一个用于不同PaI方法的基准测试和检查的代码库。
Mar, 2021
本文提出了一种名为MaskSparsity的新型网络剪枝方法,使用有意义的稀疏正则化方法来选择特定滤波器,以获得更好的模型压缩效果,并在不损失模型准确性的情况下,在Deep Learning领域实现63.03%的FLOP降低和60.34%的参数减少。
Jan, 2022
本研究提出了一种基于正则化技术实现学习稀疏神经拓扑结构的方法,包括对非相关权重标定、压缩优化以及迭代式意义下的参数消除。在图像分类与自然语言生成任务中进行测试,并通过数据指标达到与或优于竞争对手等表现。
Apr, 2022
本文研究了深度神经网络的过度参数化问题,提出了一种全局一次性网络剪枝算法,并通过计算高维几何中的正交宽度来确定剪枝比率的相变点,该值等于基于$l_1$正则化损失函数的某个凸体的平方高斯宽度除以参数的原始维度。
Jun, 2023
现代深度神经网络中,网络压缩已成为一项重要研究方向。本文通过综述现有文献,详细介绍了深度神经网络剪枝的研究方法、剪枝的不同层次以及未来发展方向,并提出了有价值的推荐建议。
Aug, 2023
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023