NISP:使用神经元重要性得分传播剪枝网络
本文介绍了一种以结构削减神经网络参数为主要内容的新方法,可通过估算神经元对最终损失的贡献并逐步去除小分值的神经元来减少计算、能量和内存传输成本。对于在 ImageNet 上训练的现代网络,我们测量了我们的方法计算的贡献与真实重要性的可靠估计之间的高度(>93%)相关性。使用所提出的方法进行修剪可实现在准确性,FLOPs 和参数减少方面的超越最新技术的改进。在 ResNet-101 上,我们通过删除 30%的参数实现了 40%的 FLOPs 减少,在 ImageNet 的前 1 个准确度方面损失了 0.02%。
Jun, 2019
本文提出了一种采用重建机制来高效获取关键修剪网络的方法,通过基于关键修剪结构的低成本度量,重新排名修剪结构并重建那些具有更高关键性的结构,实现了比现有方法更高的性能和加速度,同时研究了机制潜在机理并发现了其在恢复阶段能够高效选择潜在结构、学习一致的特征表示和减少过拟合。
Nov, 2023
提出了一种新的结构化网络修剪方法 SNPFI,该方法通过衡量滤波器的重要性和利用强度来减少冗余滤波器,并将滤波器间的相互作用纳入重要性度量中,实现减少计算成本并恢复性能的效果,并在各种图像分类数据集上成功验证了该方法的有效性。
Jul, 2023
使用神经科学的视角,通过分析滤波器中正负权重的独立重要性并赋予分数来确定卷积神经网络(CNN)中不重要的滤波器的排名,从而实现了一种新的滤波器裁剪方法 D-Score。在 CIFAR-10 和 ImageNet 数据集上的实验证明了该方法的有效性,可以显著减少 FLOPs 和参数数量而不会对准确性造成重大影响。
Aug, 2023
本文介绍了 SNIP-it,一种在训练前通过迭代敏感性准则进行剪枝的方法,提高了现代神经网络的剪枝表现,同时具有抗过拟合、抗断开和抗对抗攻击等特点。
Jun, 2020
本文采用基于采样的方法对超参数化网络中的冗余卷积神经网络滤波器进行识别和剔除,方法可同时进行数据术语构造采样分布并保证压缩后的网络在性能和大小方面有证明保证,适用于不同的网络体系结构和数据集。
Nov, 2019
本文介绍了一种通过基于连接灵敏度的显著性标准在初始化前修剪神经网络,从而在保持网络性能的同时减少空间和时间复杂度的新方法,并应用于 MNIST、CIFAR-10 和 Tiny-ImageNet 分类任务的各种体系结构中,所得到的极度稀疏网络的准确性与基准网络几乎相同,而且能够证明保留的连接确实与给定任务相关。
Oct, 2018
本文提出了 LayerPrune 框架,相较于传统基于 filter 的剪枝方法,LayerPrune 基于不同的剪枝指标实现了更高的延迟降低,并使用相同的 filter 重要性判定剪枝最不重要的层,较好地平衡了准确率和删除率。
Jul, 2020