通过测量滤波器之间的相互作用来进行结构化网络剪枝
本研究提出了一种学习算法,使用数据驱动的方式训练剪枝代理,利用奖励函数去除不必要的卷积神经网络滤波器,从而简化并加速CNN,并且在维持性能的情况下去除重复权重,减少计算资源消耗,该方法提供了一种易于控制网络性能和规模之间平衡的方法,并通过对多个流行的CNN对视觉识别和语义分割任务进行广泛的剪枝实验进行了验证。
Jan, 2018
本文研究深度卷积神经网络滤波器修剪方法,通过检验实验证明,我们使用随机滤波器修剪策略能够获得接近最先进修剪方法的性能,同时在图像分类和目标检测中均能实现显著的加速。
Jan, 2018
研究表明,通过暂时修剪和恢复模型的子集滤波器,反复进行该过程,可以减少所学习特征的重叠,从而提高了模型的泛化能力;而在这种情况下,现有的模型修剪标准并不是选择修剪滤波器的最优策略,因此引入了滤波器之间内部正交性作为排名标准。这种方法适用于各种类型的卷积神经网络,能够提高各种任务的性能,尤其是小型网络的性能。
Nov, 2018
本文提出了基于最小-最大框架的卷积神经网络滤波器级别剪枝方法,该方法同时对CNN模型参数进行剪枝和微调,具有自适应剪枝率和可直接指定误差容限等特点,在不损失准确性的情况下,有效减少了VGG-16的参数数量和FLOPS。
May, 2019
本文采用基于采样的方法对超参数化网络中的冗余卷积神经网络滤波器进行识别和剔除,方法可同时进行数据术语构造采样分布并保证压缩后的网络在性能和大小方面有证明保证,适用于不同的网络体系结构和数据集。
Nov, 2019
本文提出了一种卷积神经网络的结构冗余剪枝方法,通过在最具有结构冗余性的层剪枝,可以相对于之前研究集中在去除不重要滤波器的方法,更有效地压缩网络架构,并在不同的基准模型和数据集上获得了显著优越的表现
Apr, 2021
本文提出了一种新的卷积神经网络剪枝方法 interspace pruning (IP),通过自适应滤波器基础 (FB) 的线性组合,将过滤器表示为动态间隙,从而在高稀疏度的情况下有效地减少CNNs 的内存占用和提高了训练和泛化能力,优于传统的 unstructured pruning (SP) 方法。
Mar, 2022
本文研究了定结构剪枝在多任务深度神经网络模型中的有效性。通过使用基于现有单任务筛选剪枝标准和基于多任务学习筛选剪枝标准,采用迭代剪枝策略进行剪枝,本文表明在参数数目相似的情况下,与快速单任务DNN相比,DNN多任务可以通过精心的超参数调整实现相似的性能,迭代权重剪枝可能不是实现良好性能剪裁模型的最好方式。
Apr, 2023
提出了一种新的结构修剪方法,在训练期间利用CCM-loss来促使神经网络学习强大的线性表示关系,然后设计了一种基于主成分分析的匹配通道选择策略来最大限度地利用CCM-loss的潜在能力,达到更高的剪枝率和减少计算量。
Oct, 2023
本研究解决了当前神经网络剪枝方法中存在的节点排名与选择过程中实时更新不足、相邻层节点交互未考虑以及整体剪枝后模型可训练性差的问题。提出的保持互信息的剪枝方法(MIPP)通过维护相邻层之间的互信息,显著提升了剪枝性能,超越了现有的最先进方法。该方法将在发布时公开实施细节。
Oct, 2024