循环稀疏训练:足够吗?
本文介绍了一种新的神经网络剪枝算法 ——Dynamic Sparse Training,它可以通过可训练的剪枝门限实现优化神经网络参数和结构,并通过反向传播动态地进行精细化调整。利用这一算法,我们可以轻松训练出效果优秀的稀疏神经网络。与其他稀疏训练算法相比,Dynamic Sparse Training 在多个网络架构上取得了业界领先水平。此外,我们还发现了传统三阶段剪枝算法的潜在问题,为更紧凑的神经网络架构设计提供了理论指导。
May, 2020
本文提出了一种名为 MaskSparsity 的新型网络剪枝方法,使用有意义的稀疏正则化方法来选择特定滤波器,以获得更好的模型压缩效果,并在不损失模型准确性的情况下,在 Deep Learning 领域实现 63.03% 的 FLOP 降低和 60.34% 的参数减少。
Jan, 2022
我们提出了一种不需要训练数据也能够在初始阶段识别高度稀疏的可训练子网络的剪枝算法,该算法基于神经突触流动原理并叫做迭代神经突触流剪枝算法(SynFlow),在多种模型、数据集和稀疏约束条件下,表现出和现有最先进的基于梯度的剪枝算法相当或更好的结果,成功挑战了基于训练数据来定量判断哪些突触重要的传统范式。
Jun, 2020
在同等模型大小约束下,大而稀疏的模型普遍比小而密集的模型具有更高的准确性。因此,本文提出了一种模型修剪策略,首先以设计的随机方式生成多个修剪掩码,然后通过一个有效的掩码选择规则从候选掩码组中选择最优掩码。为了进一步提高效率,引入了一种早期掩码评估策略,减少了训练多个掩码的开销。在 GLUE 数据集的八个数据集上进行了广泛的实验证明,该方法在高稀疏水平下实现了最先进的性能。
Oct, 2023
本文提出了一种基于准确性和稀疏性目标的深层网络动态构建算法,与传统的剪枝方法不同,本方法采用渐进式连续松弛和网络优化,然后采样稀疏子网络,使得训练出来的深层网络更加高效。实验结果证明,采用本算法训练的网络比其他竞争的剪枝方法更加精确且规模更小。
Jul, 2020
本论文研究了通过神经再生技术改进的渐进式剪枝算法(GraNet),它结合了取得与单次剪枝同等性能和训练 / 推理效率的优点,尤其是其稀疏 - 稀疏模式极大地提高了 ResNet-50 在 ImageNet 上的性能。
Jun, 2021
本研究探讨了如何在现代神经网络中使用稀疏训练,提出了初始化时的随机剪枝能够有效地提高神经网络的稀疏训练性能,结果表明此方法可以匹配对应的密集网络,达到了预期效果,并且进行适当的层级稀疏比率的选择,可以进一步提高性能。
Feb, 2022
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023
提出一种新的模型压缩方法,通过允许稀疏模式的动态分配和合理使用反馈信号使得模型可以在单一训练过程中生成一个高性能的稀疏模型,且其性能超越了现有的所有修剪方案生成的模型,在 CIFAR-10 和 ImageNet 数据集上进行验证。
Jun, 2020