深度神经网络的票证彩票假设强调了重新训练使用迭代幅度修剪过程获得的更稀疏网络所使用的初始化的重要性。这项研究试图通过对幅度修剪过程的各个阶段获得的解决方案的体积 / 几何和损失景观特征进行经验性研究,以揭示票证彩票假设的特定初始化为何在泛化(和训练)性能方面表现更好,并着重研究了幅度修剪和迭代过程的底层原理,如较小幅度权重的修剪和迭代过程的作用。
Mar, 2024
本文探讨了深度神经网络(DNNs)的复杂世界,专注于激动人心的 Lottery Ticket Hypothesis(LTH)的概念。LTH 假设在大量的 DNNs 中,较小的可训练子网络(称为 “中奖票”)可以达到与完整模型相当的性能。我们进一步研究了发现这些中奖票以及它们的 “通用性”,即检查在一个特定问题上表现良好的中奖票是否也可以在其他相似问题上表现良好。我们还弥合了物理学中的 Iterative Magnitude Pruning(IMP)和 Renormalisation Group(RG)理论之间的差距,进一步促进 IMP 的更严谨理解。
Aug, 2023
使用迭代幅度裁剪算法(IMP)研究了在网络训练早期找到高度稀疏且匹配的子网络的原理,其操作是迭代循环的训练,屏蔽最小的幅度权重,回溯到早期的训练点,然后重复,结果表明:错误景观(error landscape geometry)的平坦度决定了每次 IMP 迭代中可以修剪的权重比例的限制。
Oct, 2022
本文介绍了一种新的 IMP 修剪算法,用于提前训练深层网络而不是仅在初始化时进行修剪,从而找到可在更挑战的任务上与原始网络准确匹配的深层次子网络,并提出了结果。新的 IMP 算法可以更好地稳定修剪子网的训练参数,这为之后更早地修剪大规模网络提供了新的机遇。
Mar, 2019
通过数据分布和损失面景观的角度,我们研究了 IMP 的预训练阶段如何为好的初始化做出贡献,得出了在密集网络的损失面景观中更多的线性模式连接示有利于 IMP 性能的结论。
Jun, 2022
研究神经网络优化是否在不同的 SGD 噪声样本下优化到相同的线性连接最小值;发现标准视觉模型在训练早期就变得稳定了,IMP 只有在稳定下来 SGD 噪声时才能达到完全准确性。
Dec, 2019
本文介绍了一种基于双层优化的模型修剪方法,称为 BiP,它可以像一级优化一样简单地解决大规模深度学习模型的修剪问题,而且在大多数情况下,此方法可以比传统的迭代剪枝(IMP)找到更好的中奖率,并且在同样的模型准确性和稀疏度下可以获得 2-7 倍的速度提升。
本文提出一种新方法,通过迭代的裁剪与一系列 “后处理技术”,找到带有结构化稀疏性的获奖子网络,从而在不影响模型精度的情况下,显著提高模型的推理速度。
Feb, 2022
本文介绍了一种使用稀疏双下降方法鉴定和表征与分类任务相关的剪枝模型,该方法对网络大小变化具有鲁棒性,并表明剪枝模型不仅具有更好的计算性能,而且可以更好地表示学习中的不确定性。
Jun, 2023
通过重整化群理论及迭代幅度修剪的方式优化神经网络,找到了适用于 Hamiltonian Neural Networks 的神奇票据,并且发现了它们的普适性.