更多探索的动态稀疏训练
介绍了一种新的动态稀疏重参数化方法,能够更有效地训练深度卷积神经网络,在固定的参数预算下达到最佳准确率,并发现在训练过程中探索结构自由度比增加额外的参数对网络性能的提升更为有效。
Feb, 2019
现代人工神经网络的过多计算需求为可以运行它们的机器带来了限制。我们提出一种高效的、始终稀疏训练算法,具有一流的大规模和更稀疏模型的线性时间复杂度,并通过引导随机探索算法改善了先前稀疏训练方法的准确性。
Jan, 2024
本文中,我们提出了一种基于稀疏连接的神经网络模型,使用自适应稀疏连接和纯化神经元的方法进行训练,并将其应用于 MLP 模型上,测试结果表明,该方法在 15 个数据集上表现出了竞争性的分类和泛化性能。
Jun, 2019
本文提出了一种可以在单次训练中固定参数数量的内在稀疏 RNNs 训练方法,利用非均匀分配细胞门的方法实现更好的正则化,并通过一种新型的平均随机梯度优化器 SNT-ASGD 提高了训练性能,在 Penn TreeBank 和 Wikitext-2 数据集上实现了优于 dense-to-sparse 方法的最新稀疏训练结果。
Jan, 2021
本文提出了一种新的动态稀疏训练方法用于加速深度强化学习的过程,通过在持续控制任务上实验证明,该方法可以显著提高深度强化学习的性能,降低参数数量和浮点运算数,并使训练步骤减少 40-50%。
Jun, 2021
本文提出通过渐进式变化策略的梯度退火(gradient annealing,GA)以及最新的可学习剪枝方法相结合的自动稀疏训练算法 AutoSparse,在 ImageNet-1K 数据集上表现优异,80% 稀疏 ResNet50 的训练和推断 FLOPS 减少分别达到 2 倍和 7 倍。与当前最好的稀疏到稀疏(sparse-to-sparse)方法 MEST 的表现相似,但使用的训练和推理 FLOPS 分别多 12%和 50%不到。
Apr, 2023
稀疏训练是一种在实际应用中资源高效的深度神经网络方法,然而,本研究揭示了稀疏训练加剧了对未知样本的不可靠性,通过提出一种新的对未知样本敏感的稀疏训练方法,我们改进了模型的准确性和可靠性,有效降低了面对未知样本时的模型自信度。
Mar, 2024
提出一种新的模型压缩方法,通过允许稀疏模式的动态分配和合理使用反馈信号使得模型可以在单一训练过程中生成一个高性能的稀疏模型,且其性能超越了现有的所有修剪方案生成的模型,在 CIFAR-10 和 ImageNet 数据集上进行验证。
Jun, 2020
基于 Dynamic Sparse No Training (DSnoT) 的训练无关的微调方法,能够有效地提高稀疏语言模型的性能,并开拓了将稀疏性应用于大型语言模型的潜力。
Oct, 2023
本文介绍了一种新的神经网络剪枝算法 ——Dynamic Sparse Training,它可以通过可训练的剪枝门限实现优化神经网络参数和结构,并通过反向传播动态地进行精细化调整。利用这一算法,我们可以轻松训练出效果优秀的稀疏神经网络。与其他稀疏训练算法相比,Dynamic Sparse Training 在多个网络架构上取得了业界领先水平。此外,我们还发现了传统三阶段剪枝算法的潜在问题,为更紧凑的神经网络架构设计提供了理论指导。
May, 2020