深度卷积神经网络加速的软性过滤裁剪
本研究提出了一种学习算法,使用数据驱动的方式训练剪枝代理,利用奖励函数去除不必要的卷积神经网络滤波器,从而简化并加速CNN,并且在维持性能的情况下去除重复权重,减少计算资源消耗,该方法提供了一种易于控制网络性能和规模之间平衡的方法,并通过对多个流行的CNN对视觉识别和语义分割任务进行广泛的剪枝实验进行了验证。
Jan, 2018
本文研究深度卷积神经网络滤波器修剪方法,通过检验实验证明,我们使用随机滤波器修剪策略能够获得接近最先进修剪方法的性能,同时在图像分类和目标检测中均能实现显著的加速。
Jan, 2018
本文提出了一种渐进式软过滤剪枝方法以加速卷积神经网络的推理过程,通过在重新训练阶段更新裁剪过的滤波器并逐渐剪枝来避免信息丢失,实验结果表明,与软过滤剪枝相比,本文提出的方法在 ResNet-50 上将 FLOPs 降低了 40%,但只有 0.14% 的 top-5 准确度下降。
Aug, 2018
研究表明,通过暂时修剪和恢复模型的子集滤波器,反复进行该过程,可以减少所学习特征的重叠,从而提高了模型的泛化能力;而在这种情况下,现有的模型修剪标准并不是选择修剪滤波器的最优策略,因此引入了滤波器之间内部正交性作为排名标准。这种方法适用于各种类型的卷积神经网络,能够提高各种任务的性能,尤其是小型网络的性能。
Nov, 2018
本文提出了基于最小-最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对CNN模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了VGG-16的参数数量和FLOPS。
May, 2019
本文提出了一种名为Gate Decorator的全局滤波器剪枝算法,该算法通过乘以通道缩放因子来转换卷积神经网络模块,并使用Taylor展开估算剪枝后的损失函数变化并使用估值进行全局滤波器重要性排序,然后通过删除无关紧要的滤波器来剪枝网络,并且通过迭代剪枝框架Tick-Tock提高准确性,实验证明该方法的有效性。
Sep, 2019
本文采用基于采样的方法对超参数化网络中的冗余卷积神经网络滤波器进行识别和剔除,方法可同时进行数据术语构造采样分布并保证压缩后的网络在性能和大小方面有证明保证,适用于不同的网络体系结构和数据集。
Nov, 2019
本研究提出了CURL方法,通过KL-divergence标准对残差连接内外的通道进行修剪,并使用知识蒸馏和标签细化方法解决了有限数据和标签噪声带来的问题,在ImageNet数据集上显著优于之前的最先进方法,同时在小数据集上修剪时,与预训练的小模型微调效果相当甚至更好。
Nov, 2019
本研究介绍了一种新的滤波器修剪方法(FSCL), 它在连续层之间明确利用滤波器之间的相似性来压缩模型,从而剪掉那些在模型中不太重要的特征, 并在多个基准模型和数据集上取得了显着的精度、FLOPs和参数量减少。
Apr, 2023
CR-SFP是一种简单而有效的训练框架,通过学习一致的表示来改善软过滤器修剪后的模型准确性,同时减少网络的计算复杂度,适用于各种CNN架构。
Dec, 2023