神经网络剪枝中比较重置和微调
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
该研究探讨了神经网络剪枝的相关问题,包括学习率、训练预算、线性学习率表等,并通过提出一个简单而有效的方法来适应性地选择线性表的初始值,进而减少网络的训练时间和复杂度。
Nov, 2021
本论文研究在 NLP 领域中,对预训练的 Transformers 模型采取稀疏剪枝 (sparse pruning) 技术,相较于对其通道与层数的压缩,稀疏剪枝的效果更为显著。通过基于 GLUE 数据集的实验比较,证明本论文所采用的知识感知的稀疏剪枝方法可以实现 20 倍的参数 / FLOPs 压缩并且不会明显损失模型的性能。
Apr, 2021
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
本文提出了一种基于神经系统突触发生和消失机制的梯度重连算法,用于 SNNs 中的连接性和权重优化,实现了对网络结构的优化而无需重新训练,实验结果表明,该方法能够在 MNIST 和 CIFAR-10 数据集上实现对 SNNs 性能的最小损失,并且在 0.73% 的连接性下,只有约 3.5% 的精度损失,具有优秀的结构优化能力。
May, 2021
本文提出了一种针对深度神经网络剪枝的数据无关的微调方法,使用合成图像进行训练,并通过中间监督来模拟未剪枝网络的输出特征图。实验结果表明,该方法相对于未剪枝模型具有具有很好的性能。
Jun, 2023
本文提出一种精细调整方法,通过分层修剪和自动调整分层学习率来改善调整性能和降低网络复杂度,在图像检索基准数据集(CUB-200,Cars-196,斯坦福在线产品和 Inshop)中取得了最先进的性能。
Feb, 2020
我们提出了 PruneTrain,这是一种成本高效的机制,可逐步减少训练期间的计算成本,通过使用结构化组套骨骼正则化方法和其他重新配置技术,可以在 GPU 加速器上高效处理缩小了的卷积神经网络模型,从而实现减少计算成本 40%和训练时间 39%的效果。
Jan, 2019
该研究提出了一种减小深度神经网络 (DNNs) 体积的方法 —— 使用低位表达来量化预训练模型的权重和激活数据,并提出了基于剪枝的新方法 PfQ 来解决深度中间层权重动态范围宽导致的量化误差和准确度下降的问题。
Nov, 2020