网络瘦身的近端算法
本文提出了一种名为 “网络瘦身” 的新颖学习方案,可以通过引入通道级稀疏性,简化深度卷积神经网络,降低了其计算成本,减小了运行时内存占用,同时不影响准确度。我们进行了多组实验,证明了该方案在各种图像分类数据集上具有较好的效果。
Aug, 2017
卷积神经网络 (CNNs) 被报道为过参数化。本文提出了一种基于数学思想的逐层数据驱动剪枝方法,旨在通过最小化网络熵来找到稀疏子网络,以解决网络架构搜索的复杂性问题。该方法在多个基准测试中得到验证,并在中稀疏度达到 55%-84% 时准确度损失为 0.1%-0.5%(LeNet 模型在 MNIST 数据集上),在稀疏度达到 73%-89% 时准确度损失为 0.1%-0.5%(VGG-16 和 ResNet18 模型在 CIFAR-10 数据集上)。
Apr, 2024
本文提出了一种简单有效的框架来对深度模型进行端到端的剪枝,方法是先引入一个称为 “缩放因子” 的新参数来缩放特定结构的输出,然后对这些因子加入稀疏正则化,并通过修改的随机加速远端梯度(APG)方法解决这个优化问题。将某些因子强制为零,可以安全地移除对应的结构,从而削减 CNN 的不重要部分,该方法相较于其他需要数千次试验或迭代微调的结构选择方法具有更好的性能。
Jul, 2017
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
本文提出一种基于通道修剪的卷积神经网络加速算法,该算法通过端到端随机训练和修剪常量通道的方法得到压缩模型,并在多个图像识别任务上验证了其竞争性能。
Feb, 2018
提出一种新的方向剪枝方法,用于在训练损失的平稳区域内或接近该区域内寻找稀疏解,证明了该方法在高度稀疏时对 ResNet50,VGG16 和 wide ResNet 28x10 等神经网络的同时达到与 SGD 相同的极小值,并且所找到的极小值不会影响训练损失
Jun, 2020
本文提出一种基于梯度流的模型修剪方法,综合考虑 BN 和 ReLU 层后的卷积操作对整个特征映射的影响,采用 BN 层中的一阶泰勒多项式标识神经元的重要程度,该方法在图像分类和去噪任务上取得了良好的性能表现。
Oct, 2021
本文提出了一种新的通道剪枝方法,能够加速非常深的卷积神经网络,通过基于 LASSO 回归的通道选择和最小二乘重构的迭代两步算法有效地修剪每一层,进一步推广到多层和多分支情况,剪枝后的 VGG-16 实现了 5 倍速度提升和仅 0.3%误差增加的最新成果,更重要的是,本方法能够加速现代网络,例如 ResNet,Xception,分别在 2 倍加速下只有 1.4%,1.0%的准确度损失,代码已公开出售。
Jul, 2017