CFDP: 常见频域剪枝
提出一种高效、有效的训练时裁剪方案 ——Parameter-free Differentiable Pruning(PDP),可适用于各种视觉和自然语言任务,支持无结构裁剪约束,基于训练时动态权重函数生成软裁剪掩码并得到最新的模型大小、精确度和培训成本。
May, 2023
该研究介绍了一种简单而有效的方法(称为 DCP),旨在尽可能地选择实际有助于卷积神经网络判别能力的通道,并进一步通过去除多余的内核来压缩深层网络,同时通过自适应停止条件来防止选择冗余的通道 / 内核并实现更好的性能。
Jan, 2020
我们提出了一种自动剪枝和重构的无数据方法(AutoDFP),该方法基于强化学习,通过评估每层通道的相似性来指导网络的剪枝和重构过程,并在多个数据集上实现了令人印象深刻的压缩结果。
Mar, 2024
本文提出了 Continuous Growth and Pruning (CGaP) 方法,旨在在训练模型期间最小化冗余并从一开始便避免引入冗余,通过持续增长和修剪过程获取紧凑和准确的模型。根据实验结果,在代表性数据集和 DNN 结构上,CGaP 的效果优于以前的仅修剪预定义结构的方法,达到了参数减少 78.9%和 85.8%,FLOPs(浮点计算数)减少 53.2%和 74.2%。
May, 2019
通过在频域进行学习和频道选择,我们提出了减少冗余和显著信息以提高图像分类精度的学习方法,得出使用该方法的 ResNet-50、MobileNetV2 和 Mask R-CNN 在图像分类和实例分割上表现更好的结论。
Feb, 2020
本文提出一种新的滤波器剪枝方法,该方法结合了多个特征图选择机制:多样性感知选择和相似性感知选择,能够有效地减小卷积神经网络的参数大小和浮点运算数,同时几乎不会降低其分类准确度。
May, 2020
通过对特征图和卷积核级别进行修剪,可以减少深度卷积神经网络的计算复杂性,而且在 CIFAR-10 数据集上的实验证明,在保持基线网络误分类率不到 1% 的情况下,可以在卷积层中引入超过 85% 的稀疏性。
Oct, 2016
本文探讨基于傅里叶分析的 Magnitude-Based Pruning (MBP) 算法,在深度学习模型中进行网络压缩和模型设计,并提出了一种新颖的两阶段剪枝方法。实验结果表明,我们提出的基于傅里叶分析的 MBP 算法相比其他传统 MBP 算法具有优越性。
Jan, 2022
本文研究了在联邦学习中,通过实现 Term Frequency Inverse Document Frequency (TF-IDF) 对不同分类通道进行量化刻画,进而实现非对称遗忘(category forgetting)的目的,而不需要全局访问训练数据,仅通过不需要从头开始重新训练模型的渐进式剪枝来调整分类模型,实验结果表明相对于重新训练模型,无论是在 CIFAR10 数据集还是 CIFAR100 数据集中,本文的方法均可大幅加速非对称遗忘速度 8.9x ~ 9.9x,而且可以较准确地刻画通道与分类的关系,从而提供了一种合规性更高的选择。
Oct, 2021
本文提出了基于最小 - 最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对 CNN 模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了 VGG-16 的参数数量和 FLOPS。
May, 2019