DRIVE: 双梯度快速迭代剪枝
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
该研究旨在通过初始修剪神经网络来提高训练和测试时的资源效率。通过保留网络中的梯度流,提出了一个名为 GraSP 的简单但有效的剪枝标准,并在 VGGNet 和 ResNet 架构上进行了广泛实验,证明其在极度稀疏的情况下具有更好的性能。
Feb, 2020
提出一种高效、有效的训练时裁剪方案 ——Parameter-free Differentiable Pruning(PDP),可适用于各种视觉和自然语言任务,支持无结构裁剪约束,基于训练时动态权重函数生成软裁剪掩码并得到最新的模型大小、精确度和培训成本。
May, 2023
本文提出了一个基于动量优化(momentum-SGD-based optimization)的优化方法,用于压缩 DNN 模型,从而消除冗余参数,减少网络的复杂度。该方法采用全局压缩策略来自动找到层次的稀疏率,经过优化后能够无需耗费时间进行重训练的过程,具有更好的压缩效果和训练能力。
Sep, 2019
通过修剪来高效地压缩神经网络,减少存储和计算需求,同时保持预测性能,我们提出了一种参数高效的修剪后重训练方法,使得修剪和重训练大规模语言模型的任务成为可能。
Dec, 2023
该篇研究通过梯度流的方式,研究了深度神经网络早期剪枝的影响,通过多组实验验证了几种不同的影响度量标准,从而在神经网络剪枝的早期阶段提出了一种更加有效的剪枝方法。
Sep, 2020
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
我们提出了 PruneTrain,这是一种成本高效的机制,可逐步减少训练期间的计算成本,通过使用结构化组套骨骼正则化方法和其他重新配置技术,可以在 GPU 加速器上高效处理缩小了的卷积神经网络模型,从而实现减少计算成本 40%和训练时间 39%的效果。
Jan, 2019
本文介绍了 SNIP-it,一种在训练前通过迭代敏感性准则进行剪枝的方法,提高了现代神经网络的剪枝表现,同时具有抗过拟合、抗断开和抗对抗攻击等特点。
Jun, 2020