用迭代随机化方法剪枝随机初始化的神经网络
深度神经网络的票证彩票假设强调了重新训练使用迭代幅度修剪过程获得的更稀疏网络所使用的初始化的重要性。这项研究试图通过对幅度修剪过程的各个阶段获得的解决方案的体积 / 几何和损失景观特征进行经验性研究,以揭示票证彩票假设的特定初始化为何在泛化(和训练)性能方面表现更好,并着重研究了幅度修剪和迭代过程的底层原理,如较小幅度权重的修剪和迭代过程的作用。
Mar, 2024
该研究提出彩票票据假设,证明对于每个有界分布以及带有有界权重的目标网络,一个具有随机权重的足够超参数的神经网络包含一个子网络,与目标网络具有大致相同的准确性,而不需要进一步的训练。
Feb, 2020
本文介绍了一种新的 IMP 修剪算法,用于提前训练深层网络而不是仅在初始化时进行修剪,从而找到可在更挑战的任务上与原始网络准确匹配的深层次子网络,并提出了结果。新的 IMP 算法可以更好地稳定修剪子网的训练参数,这为之后更早地修剪大规模网络提供了新的机遇。
Mar, 2019
该研究介绍了一种名为 Iterative Weight Recycling 的算法,该算法可在初始化的神经网络中识别重要权重的子集以供重复使用,可以提高模型稀疏度,此外还支持了多奖励彩票票据假设的互补结果,即高精度,随机初始化的子网络产生多样的掩码,展现了高度的变异性。
Mar, 2023
该文在进行神经网络剪枝过程中提出了 “彩票票假设”,即在一个密集、随机初始化的前馈神经网络中存在一些幸运的子网络,当其被隔离地训练时,可以在相似的迭代次数内达到与原始网络相当的测试准确性,通过一系列实验验证了该假设的正确性和这些幸运初始化的重要性。
Mar, 2018
彩票模型的存在考虑了深度学习中是否需要大型模型以及是否可以快速识别和训练稀疏网络,而无需训练包含它们的稠密模型。通过对彩票模型的理论解释,揭示了稀疏网络需要依赖于数据的遮罩来稳定插值噪声数据。研究证实了训练过程中获取的信息可以影响模型容量。
Feb, 2024
研究了在线性设置中用于剪枝神经网络的 lottery ticket hypothesis (LTH),发现找到一个稀疏的 mask 等价于为高效矩阵乘法引入的 sketching 问题,并以此作为工具来分析 LTH 问题并提出通用改进算法。
May, 2023
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
本研究提出了 Multi-Prize Lottery Ticket 假设,表明含有随机权重的过度参数化神经网络包含多个可训练子网络,可以通过剪枝和精度量化来获得高精度的二进制神经网络。实验表明通过该方法得到的神经网络可以在 CIFAR-10 和 ImageNet 数据集上达到更高的精度,而且效果比原始的全精度基线模型更好。
Mar, 2021
本文提出了一种利用随机比率和初始值提取的网络子结构的方法,称为随机票选,并通过实验发现它的性能与利用训练数据提取的子网络的性能相似或更优,并进一步介绍了一种使用随机票选和一个现有子结构提取方法的混合票选方法,被称为混合票选。
Sep, 2020