本文提出了一种基于滤波器减少方法的 CNNs 加速方法,它不依赖稀疏卷积库,通过移除对输出准确性影响较小的整个滤波器及其连接的特征图,大大降低了计算成本,在 CIFAR10 数据集上可以使 VGG-16 推理时间减少 34%、ResNet-110 推理时间减少 38%,并且通过重新训练网络可以接近原始准确性。
Aug, 2016
本文通过软过度滤波 (SFP) 方法对深度卷积神经网络 (CNN) 推导过程进行了加速优化,通过对模型进行剪枝更新达到了更高的准确性和更高效的训练,这种方法不依赖预训练模型且在 ILSCRC-2012 数据集 ResNet-101 上表现优异。
Aug, 2018
本文提出了 LayerPrune 框架,相较于传统基于 filter 的剪枝方法,LayerPrune 基于不同的剪枝指标实现了更高的延迟降低,并使用相同的 filter 重要性判定剪枝最不重要的层,较好地平衡了准确率和删除率。
Jul, 2020
提出了一种新的结构化网络修剪方法 SNPFI,该方法通过衡量滤波器的重要性和利用强度来减少冗余滤波器,并将滤波器间的相互作用纳入重要性度量中,实现减少计算成本并恢复性能的效果,并在各种图像分类数据集上成功验证了该方法的有效性。
Jul, 2023
本文提出了一种新颖的网络剪枝方法 FilterSketch,运用了保留预训练网络权重信息的技巧,通过矩阵描绘,实现了剪枝优化的高效求解,同时不必进行基于数据的迭代优化,节约了大量时间,并且能够在简单微调过程中恢复剪枝网络的表达能力。
Jan, 2020
基于稀疏化剪枝的研究中,我们提出了一种增强稀疏化范式的结构化剪枝框架 (STP),通过自蒸馏的方式维持被剪枝权重的大小并增强保留权重的表现力。此外,为了找到最优的剪枝网络架构,我们采用了多维架构空间和知识蒸馏引导的探索策略,同时使用子网变异扩展技术来减小蒸馏的容量差距。大量实验证明了 STP 的有效性,特别是在极度激进的剪枝情况下,例如在 ImageNet 上对 ResNet-50 进行剪枝,保持 95.11% 的 Top-1 准确率(从 76.15% 减少 85% 的浮点操作)。
Mar, 2024
本文提出一种新的滤波器剪枝方法,该方法结合了多个特征图选择机制:多样性感知选择和相似性感知选择,能够有效地减小卷积神经网络的参数大小和浮点运算数,同时几乎不会降低其分类准确度。
May, 2020
本研究提出网络剪枝空间的概念,探讨子网络结构在不同剪枝范围内的最小精度损失并证明了在某个剪枝范围内存在最佳的 FLOPs-to-parameter-bucket 比率,通过实验结果表明,我们找到的子网络在合理的 FLOPs 下优于现有最先进的剪枝方法。
Apr, 2023
通过矩阵稀疏化的过程,我们提出了适用于神经网络剪枝的矩阵稀疏化算法,以保留关键神经权重,从而为神经网络剪枝提供一个统一的理论基础,并提高了深度神经网络的可解释性。
本文提出了基于最小 - 最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对 CNN 模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了 VGG-16 的参数数量和 FLOPS。
May, 2019