使用任何掩码更好地训练您的稀疏神经网络
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023
本文介绍了一种新的神经网络剪枝算法 ——Dynamic Sparse Training,它可以通过可训练的剪枝门限实现优化神经网络参数和结构,并通过反向传播动态地进行精细化调整。利用这一算法,我们可以轻松训练出效果优秀的稀疏神经网络。与其他稀疏训练算法相比,Dynamic Sparse Training 在多个网络架构上取得了业界领先水平。此外,我们还发现了传统三阶段剪枝算法的潜在问题,为更紧凑的神经网络架构设计提供了理论指导。
May, 2020
本文提出了一种名为 MaskSparsity 的新型网络剪枝方法,使用有意义的稀疏正则化方法来选择特定滤波器,以获得更好的模型压缩效果,并在不损失模型准确性的情况下,在 Deep Learning 领域实现 63.03% 的 FLOP 降低和 60.34% 的参数减少。
Jan, 2022
在同等模型大小约束下,大而稀疏的模型普遍比小而密集的模型具有更高的准确性。因此,本文提出了一种模型修剪策略,首先以设计的随机方式生成多个修剪掩码,然后通过一个有效的掩码选择规则从候选掩码组中选择最优掩码。为了进一步提高效率,引入了一种早期掩码评估策略,减少了训练多个掩码的开销。在 GLUE 数据集的八个数据集上进行了广泛的实验证明,该方法在高稀疏水平下实现了最先进的性能。
Oct, 2023
本研究探讨了如何在现代神经网络中使用稀疏训练,提出了初始化时的随机剪枝能够有效地提高神经网络的稀疏训练性能,结果表明此方法可以匹配对应的密集网络,达到了预期效果,并且进行适当的层级稀疏比率的选择,可以进一步提高性能。
Feb, 2022
本文介绍了一种针对稀疏神经网络的并行训练算法、非可训练参数激活函数、隐藏神经元重要性指标等三个新型贡献,该方法能够最大程度地利用稀疏神经网络的潜力。实验结果表明,这种方法具有最前沿的性能,同时为实现环保型人工智能奠定了基础。
Feb, 2021
该研究提出了一种名为 ProbMask 的基于概率空间的有效网络稀疏化方法,通过使用概率作为全局标准来度量权重重要性。 通过我们的约束,可以自动学习权重冗余度,避免为不同层调整剪枝率的问题,表现优异在 CIFAR-10/100 和 ImageNet 等数据集上,尤其是在高剪枝率情况下超过现有的最先进方法。
May, 2021
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文提出了一种搜索被称为 "lottery jackpots" 的高性能、稀疏的子网络的方法,通过使用基于幅值的裁剪技术初始化稀疏掩码并使用短限制方法减少训练损失,从而提高搜索效率和准确性。
Apr, 2021
本文针对神经网络剪枝技术在高稀疏度领域的应用,提出了新的有效稀疏度概念,重定义了性能评价指标,同时开发了一个成本较低的扩展工具,通过评估各种剪枝算法的绝对和相对性能表现,证明新的评价框架下与基于初始化的剪枝算法相比,随机剪枝仍然是一种可行的方法。
Jul, 2021