介绍了一种有效的基于鉴别力的通道剪枝方法,利用额外的损失函数增加中间层的鉴别力并根据重构误差和额外损失函数选择最具鉴别力的通道,并提出了一种迭代贪心算法来优化参数和通道选择。对类似于 ILSVRC-12 的测试数据,使用该算法对 ResNet-50 剪枝显示出相当有效的性能。
Oct, 2018
深度神经网络剪枝是减少模型大小、提高推理延迟和降低深度神经网络加速器功耗的一种关键策略。我们介绍了一种新型的、独立且可微的剪枝方法 (SMART pruner),它通过利用独立的、可学习的概率掩码来排名权重重要性,采用可微分的前 k 个操作符实现目标稀疏性,并利用动态温度参数技巧逃离非稀疏局部最小值。实验证明,SMART pruner 在各种任务、模型和剪枝类型上始终表现出优于现有剪枝方法的优越性。此外,在 N:M 剪枝情况下,我们还针对基于 Transformer 的模型进行了测试,SMART pruner 也取得了最先进的结果,展示了它在各种神经网络架构和剪枝类型上的适应性和鲁棒性。
Mar, 2024
本研究提出一种新的卷积神经网络通道剪枝方法,采用软化掩码方式剪枝,从而实现网络速度显著加快并限制成本,同时在 ImageNet 分类和 PASCAL VOC 检测数据集上取得了优异的表现。
Nov, 2022
本文提出了一种新的通道剪枝方法,通过使用基线模型的中间输出和剪枝模型的分类损失来监督分层通道选择,并通过考虑重建误差、附加损失和分类损失来显著提高剪枝模型的性能。
Feb, 2019
该研究介绍了一种简单而有效的方法(称为 DCP),旨在尽可能地选择实际有助于卷积神经网络判别能力的通道,并进一步通过去除多余的内核来压缩深层网络,同时通过自适应停止条件来防止选择冗余的通道 / 内核并实现更好的性能。
Jan, 2020
本文提出一种基于梯度流的模型修剪方法,综合考虑 BN 和 ReLU 层后的卷积操作对整个特征映射的影响,采用 BN 层中的一阶泰勒多项式标识神经元的重要程度,该方法在图像分类和去噪任务上取得了良好的性能表现。
Oct, 2021
本文提出一种基于通道修剪的卷积神经网络加速算法,该算法通过端到端随机训练和修剪常量通道的方法得到压缩模型,并在多个图像识别任务上验证了其竞争性能。
Feb, 2018
本文探讨了基于随机或基于度量的通道剪枝策略以及使用强化学习寻找可转移的层面剪枝策略,结果表明后者能够将剪枝策略应用于新数据集并获得压缩的同时保持精度。
Apr, 2020
本文提出了一种新的通道剪枝方法,能够加速非常深的卷积神经网络,通过基于 LASSO 回归的通道选择和最小二乘重构的迭代两步算法有效地修剪每一层,进一步推广到多层和多分支情况,剪枝后的 VGG-16 实现了 5 倍速度提升和仅 0.3%误差增加的最新成果,更重要的是,本方法能够加速现代网络,例如 ResNet,Xception,分别在 2 倍加速下只有 1.4%,1.0%的准确度损失,代码已公开出售。
Jul, 2017
该研究采用随机搜索算法确定裁剪神经网络中通道的配置,比较各种方法的表现,结果发现在这种设置下没有明显的优胜者,这倾向于深入研究通道配置搜索方法。
May, 2022