预训练模型中存在的彩票大奖
本文介绍了一种新的 IMP 修剪算法,用于提前训练深层网络而不是仅在初始化时进行修剪,从而找到可在更挑战的任务上与原始网络准确匹配的深层次子网络,并提出了结果。新的 IMP 算法可以更好地稳定修剪子网的训练参数,这为之后更早地修剪大规模网络提供了新的机遇。
Mar, 2019
该研究提出了一种基于连续稀疏化的新型算法,用于寻找高效的、稀疏的深度神经网络模型。实验结果表明,在修剪和寻找稀疏子网络方面,我们均超过了现有方法的最新技术水平,包括 VGG 在 CIFAR-10 上训练和 ResNet-50 在 ImageNet 上训练等。
Dec, 2019
该文在进行神经网络剪枝过程中提出了 “彩票票假设”,即在一个密集、随机初始化的前馈神经网络中存在一些幸运的子网络,当其被隔离地训练时,可以在相似的迭代次数内达到与原始网络相当的测试准确性,通过一系列实验验证了该假设的正确性和这些幸运初始化的重要性。
Mar, 2018
本文研究了采用多轮训练的方式,是否能够提高特定体系结构的准确度与稀疏性之间的平衡,并在共享的 ResNet-20 初始化的基础上使用不同的 SGD 数据顺序训练多个网络副本来实现。我们的实验结果显示,采用多轮训练的思路与一次性的基于幅度裁剪的方法相比并无差异。
Apr, 2021
彩票模型的存在考虑了深度学习中是否需要大型模型以及是否可以快速识别和训练稀疏网络,而无需训练包含它们的稠密模型。通过对彩票模型的理论解释,揭示了稀疏网络需要依赖于数据的遮罩来稳定插值噪声数据。研究证实了训练过程中获取的信息可以影响模型容量。
Feb, 2024
通过研究神经网络模型剪枝,提出了 “Lottery Ticket Hypothesis”,发现神经网络的初始化和学习率等条件会影响最优子网络的提取,同时提出 “Pruning & Fine-tuning” 方法来优化剪枝和训练,实验证明该方法在多种深度神经网络结构上表现出色。
Feb, 2021
本文基于 Lottery Ticket Hypothesis 对一系列迁移学习任务进行研究,通过使用无结构量级剪枝来发现最优子网络,实验结果表明减少约 90-95% 权重的稀疏子网络在多个现实场景下能够达到或超过原始网络的准确度。
May, 2019
本研究提出了 Multi-Prize Lottery Ticket 假设,表明含有随机权重的过度参数化神经网络包含多个可训练子网络,可以通过剪枝和精度量化来获得高精度的二进制神经网络。实验表明通过该方法得到的神经网络可以在 CIFAR-10 和 ImageNet 数据集上达到更高的精度,而且效果比原始的全精度基线模型更好。
Mar, 2021
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
本文提出了一种新的方法,通过仅使用一种特殊的数据子集来发现 Lottery Ticket Hypothesis (LTH) 中的胜彩(稀疏而关键的子网络),该子集被称为 Pruning-Aware Critical set (PrAC set),相较于使用全套训练集的方式,使用该子集可以更高效地发现这些胜彩,这篇文章还验证了这种做法在不同网络结构上的适用性。
Jun, 2021