本文评估了三种在深度神经网络中引入稀疏性的技术,并对两个大规模的学习任务进行了严格评估,结果表明,简单的幅度剪枝方法可以获得相当或更好的性能,而不能从头开始训练稀疏结构,并强调了建立大规模基准测试的必要性。
Feb, 2019
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文提出了一种新的计划性生长和修剪(GaP)方法,通过重复生长图层子集并在一定训练后将它们修剪回稀疏状态,以减少计算和内存成本,同时保持模型质量。实验结果表明,该方法获得的稀疏模型在各种任务中的性能都优于先前最先进的算法,并且无需预训练密集模型即可获得高质量的结果。
Jun, 2021
本文提出了一种名为MaskSparsity的新型网络剪枝方法,使用有意义的稀疏正则化方法来选择特定滤波器,以获得更好的模型压缩效果,并在不损失模型准确性的情况下,在Deep Learning领域实现63.03%的FLOP降低和60.34%的参数减少。
Jan, 2022
本研究探讨了如何在现代神经网络中使用稀疏训练,提出了初始化时的随机剪枝能够有效地提高神经网络的稀疏训练性能,结果表明此方法可以匹配对应的密集网络,达到了预期效果,并且进行适当的层级稀疏比率的选择,可以进一步提高性能。
Feb, 2022
本研究提出了一种新的稀疏训练技术,使用“幽灵”神经元和跳跃连接等训练初始策略来提高性能和稳定性,适用于各种稀疏掩蔽方法下的深度学习网络
Jun, 2022
本文主要介绍了利用大规模稀疏结构提高卷积神经网络推理效率的方法, 开发了一种名为 FSCNN 的稀疏卷积神经网络推理系统,能够在一定的稀疏程度下优于标准深度学习库 PyTorch,但遇到高优化密集运算时推理效率有一定局限性,因此推荐采用粗粒度稀疏度进行通用模型压缩。
Dec, 2022
现代人工神经网络的过多计算需求为可以运行它们的机器带来了限制。我们提出一种高效的、始终稀疏训练算法,具有一流的大规模和更稀疏模型的线性时间复杂度,并通过引导随机探索算法改善了先前稀疏训练方法的准确性。
Jan, 2024
现有稀疏训练方法在高稀疏度区域存在模型质量下降的问题,本文通过限制梯度传递以减少梯度噪声,提供了一种改善高稀疏度区域视觉和语言模型性能的方法,并针对模型精度和训练计算成本的权衡问题进行了评估。
Feb, 2024
通过在高维度中训练剪枝神经网络并与梯度下降算法结合,我们研究了剪枝网络对广泛类统计模型学习的影响,发现剪枝神经网络在样本复杂度上相比未剪枝网络有提升,并引入了相关统计查询下界来支持这一观点。
Jun, 2024