代理拉格朗日松弛法:一种无需重新训练的深度神经网络剪枝路径
我们提出了一种在神经网络早期训练阶段识别和消除不相关层的算法。与权重或滤波器层剪枝相比,层剪枝能够减少神经网络中更难并行计算的顺序计算。我们采用了一种结构,在非线性网络部分周围使用剩余连接,使非线性部分进行剪枝后仍然能够在网络中传递信息。我们的方法基于变分推断原理,在神经网络权重上使用高斯规模混合先验,从而在训练和推理过程中实现大幅成本节省。该算法在 MNIST、CIFAR-10 和 ImageNet 数据集以及常见的 LeNet、VGG16 和 ResNet 架构上进行了评估,模拟实验结果表明,由于并行训练和剪枝,我们的方法在层剪枝方面以较低的计算成本实现了最先进的性能。
Jun, 2024
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达 93% 的稀疏度与 95% FLOPs 的减少,同时在分类和分割问题上超过了先进水平,并且避免了在 GPU 上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
提出了一种用于深度神经网络(DNNs)的新颖正则化方法,将训练过程视为约束优化问题,利用随机增广拉格朗日乘子法(SAL)实现更灵活高效的正则化机制,对白盒模型进行改进以确保可解释性,实验证明该方法在图像分类任务上实现了更高的准确度并具有更好的约束满足性,从而展示其在受限设置下优化 DNNs 的潜力。
Oct, 2023
我们提出了 PruneTrain,这是一种成本高效的机制,可逐步减少训练期间的计算成本,通过使用结构化组套骨骼正则化方法和其他重新配置技术,可以在 GPU 加速器上高效处理缩小了的卷积神经网络模型,从而实现减少计算成本 40%和训练时间 39%的效果。
Jan, 2019
本文提出了 PuRL,一种基于深度强化学习(RL)的神经网络剪枝算法,通过在每个剪枝步骤上提供奖励,可以在短时间内达到与现有最先进方法相当的稀疏性和准确性。 PuRL 在 ResNet-50 模型上实现了超过 80% 的稀疏性,并在 ImageNet 数据集上保持了 75.37% 的 Top-1 精度,并且可以很容易地适应于各种体系结构。
Jul, 2020
我们提出了一种新颖的层自适应权重剪枝方法,通过优化输出失真最小化并同时遵守目标剪枝比例约束,实现了对深度神经网络 (DNNs) 的优化。我们发现和利用了多个层的权重剪枝导致的输出失真具有非常重要的可加性特性,并基于此特性将剪枝问题建模为一个组合优化问题,并通过动态规划高效解决。我们用子问题分解的方式使问题具有线性时间复杂度,从而使我们的优化算法快速且适用于 CPU 运行。在 ImageNet 和 CIFAR-10 数据集上的广泛实验证明了我们方法的优越性。在 CIFAR-10 上,我们的方法在 ResNet-32、VGG-16 和 DenseNet-121 的 top-1 准确率方面分别超过了其他方法 1.0%、0.5% 和 0.7%。在 ImageNet 上,我们的方法分别比其他方法提高了 VGG-16 和 ResNet-50 的 top-1 准确率高达 4.7% 和 4.6%。这些结果突出了我们的方法通过层自适应权重剪枝来提升 DNN 性能的效果和实用性。代码将在此 https URL 上提供。
Aug, 2023
本文提出了一种基于层次的剪枝方法对深度神经网络进行压缩,通过独立剪枝每个层次的参数可以保证压缩后的网络只需要进行轻量级的重新训练即可恢复预测能力,并在基准数据集上进行了广泛实验以证明其有效性。
May, 2017
本论文提出了一种用于深度神经网络的训练后权重修剪方法,其在生产环境中能够达到可接受的精度水平,并且足够快速以在桌面 CPU 或边缘设备等通用硬件上运行。该方法针对基于自动生成的合成分形图像的计算机视觉模型的无数据扩展,实现了数据免费的神经网络修剪,并在 ImageNet 数据集上获得了最新的数据免费神经网络修剪结果,对于 50% 的稀疏率下使用 ResNet50 的 top@1 准确率丢失约为 1.5%。在使用真实数据时,能够获得在 8 位精度下稀疏率为 65% 的 ResNet50 模型,而仅准确率下降约为 1%。
Apr, 2021
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023