本文提出了一个基于动量优化(momentum-SGD-based optimization)的优化方法,用于压缩 DNN 模型,从而消除冗余参数,减少网络的复杂度。该方法采用全局压缩策略来自动找到层次的稀疏率,经过优化后能够无需耗费时间进行重训练的过程,具有更好的压缩效果和训练能力。
Sep, 2019
本文针对深度神经网络在资源受限情况下需付出昂贵的内存和计算代价的问题,提出一种基于梯度修正的自适应稀疏训练方法,实现了时间和空间的双重高效率,并在多个数据集、模型体系结构和稀疏性上展开实验,结果表明,与同类方法相比,本文所提出的方法能够在相同的训练时长内,将准确率提高多达 5.0%,或者在达到相同准确率的情况下,将训练时长缩短高达 52.1%。
Jan, 2023
本文提出了 SparseTrain 来加速卷积神经网络的训练,该方法通过完全利用稀疏性,主要包括三个方面的创新:激活梯度剪枝算法、稀疏训练数据流和加速器架构。评估结果表明,与原始训练流程相比,SparseTrain 平均可实现约 2.7 倍的加速和 2.2 倍的能量效率提高。
Jul, 2020
现代人工神经网络的过多计算需求为可以运行它们的机器带来了限制。我们提出一种高效的、始终稀疏训练算法,具有一流的大规模和更稀疏模型的线性时间复杂度,并通过引导随机探索算法改善了先前稀疏训练方法的准确性。
Jan, 2024
该研究提出了高效的稀疏训练方法,通过引入连续性问题,将优化过程分为权重更新和结构参数更新两个步骤,前者可利用稀疏结构实现,后者通过方差减少策略梯度估计器而获得全面稀疏训练,维度之间的联系局限在两个步骤中,展示了远远超过之前方法的训练加速效果。
Nov, 2021
本文提出了基于动态稀疏训练的稀疏连接性搜索问题的开发和探索获取函数,旨在使稀疏训练达到更高的准确性和更高的稀疏度,实验结果表明,相较于目前最先进的稀疏训练方法,在多项深度学习任务中,本文所提出的方法额外具有更高的准确性。
Nov, 2022
通过修剪更小的梯度和考虑激活梯度的统计分布,我们提出了一种方法来加速 CNN 训练,这将不会影响准确率。
Aug, 2019
提出一种基于随机 Bregman 迭代的学习框架,用于训练稀疏神经网络,采用逆比例空间方法。该方法具有很高的效率和易实现性,且在 ResNet-18 的参数中仅用了 3.4%,达到 90.2% 的 CIFAR-10 测试准确率。同时,利用该框架还可以进行稀疏反向传播和资源友好型训练。
May, 2021
本文提出了一种算法 - 软件共同设计的剪枝方法,采用 “分块友好” 的稀疏模式来实现现有的密集结构上的延迟加速,旨在解决原先稀疏模型上由于随机分布权重导致计算不规则的问题,在 GPU 笔记本上成功地实现了 1.95 倍速度提升的优化效果。
Aug, 2020
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023