全局稀疏约束下神经网络的有效稀疏化
在同等模型大小约束下,大而稀疏的模型普遍比小而密集的模型具有更高的准确性。因此,本文提出了一种模型修剪策略,首先以设计的随机方式生成多个修剪掩码,然后通过一个有效的掩码选择规则从候选掩码组中选择最优掩码。为了进一步提高效率,引入了一种早期掩码评估策略,减少了训练多个掩码的开销。在 GLUE 数据集的八个数据集上进行了广泛的实验证明,该方法在高稀疏水平下实现了最先进的性能。
Oct, 2023
本文提出了一种名为 MaskSparsity 的新型网络剪枝方法,使用有意义的稀疏正则化方法来选择特定滤波器,以获得更好的模型压缩效果,并在不损失模型准确性的情况下,在 Deep Learning 领域实现 63.03% 的 FLOP 降低和 60.34% 的参数减少。
Jan, 2022
本文提出了一种新的计划性生长和修剪(GaP)方法,通过重复生长图层子集并在一定训练后将它们修剪回稀疏状态,以减少计算和内存成本,同时保持模型质量。实验结果表明,该方法获得的稀疏模型在各种任务中的性能都优于先前最先进的算法,并且无需预训练密集模型即可获得高质量的结果。
Jun, 2021
通过矩阵稀疏化的过程,我们提出了适用于神经网络剪枝的矩阵稀疏化算法,以保留关键神经权重,从而为神经网络剪枝提供一个统一的理论基础,并提高了深度神经网络的可解释性。
Jul, 2023
本文针对神经网络剪枝技术在高稀疏度领域的应用,提出了新的有效稀疏度概念,重定义了性能评价指标,同时开发了一个成本较低的扩展工具,通过评估各种剪枝算法的绝对和相对性能表现,证明新的评价框架下与基于初始化的剪枝算法相比,随机剪枝仍然是一种可行的方法。
Jul, 2021
本文提出了一种搜索被称为 "lottery jackpots" 的高性能、稀疏的子网络的方法,通过使用基于幅值的裁剪技术初始化稀疏掩码并使用短限制方法减少训练损失,从而提高搜索效率和准确性。
Apr, 2021
本文研究了采用多轮训练的方式,是否能够提高特定体系结构的准确度与稀疏性之间的平衡,并在共享的 ResNet-20 初始化的基础上使用不同的 SGD 数据顺序训练多个网络副本来实现。我们的实验结果显示,采用多轮训练的思路与一次性的基于幅度裁剪的方法相比并无差异。
Apr, 2021
神经网络稀疏化是一条有前途的路径,可在计算时和内存成本方面节省时间,特别是在许多成功的 AI 模型变得过大而无法简单部署到消费者硬件的时代。
Feb, 2024
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023