多头注意力自动剪枝
本研究提出了一种基于注意统计的简单通道剪枝技术,使用单个压缩比替代每层模型的分析,实现了自动通道选择,取得了超越常规方法的性能提升,训练不同模型和数据集的结果表明该方法减少了计算成本且更加准确。
Jun, 2018
本研究提出了一种基于人工蜂群算法的新型通道剪枝方法,名为 ABCPruner,通过优化每一层的通道数量来寻找最优的剪枝结构,相比于以往的方法,该方法能够有效地减少剪枝结构的组合数量并且更加高效。
Jan, 2020
通过将通道修剪和模型微调合并为单个端到端可训练的系统,使用自动修剪器来找到不重要的滤波器。所生成的真二元指数代码可以安全地删除运用于微调后的模型中。相较于之前的优秀修剪算法,AutoPruner 能够显著提高性能。慢慢擦除几个弱滤波器可以防止模型精度的过度下降。
May, 2018
本文提出了一种基于元学习的通道自动剪枝方法。首先使用简单的随机结构采样方法训练一个 PruningNet 元网络,然后应用演化搜索方法寻找良好表现的剪枝网络,其效率高且无需在线微调。实验结果表明,相比现有的剪枝方法,该方法在 MobileNet V1/V2 和 ResNet 等模型上有着更好的性能表现。
Mar, 2019
本文提出了一种新的通道剪枝方法,通过使用基线模型的中间输出和剪枝模型的分类损失来监督分层通道选择,并通过考虑重建误差、附加损失和分类损失来显著提高剪枝模型的性能。
Feb, 2019
本文提出了一种可微的子集剪枝技术,通过学习每个头的重要性变量并对未剪枝的头数施加用户指定的硬约束,实现对多头注意力机制的剪枝;实验证明该技术可以实现精确控制稀疏度水平,并在自然语言推理和机器翻译方面的表现不亚于以往技术。
Aug, 2021
本文提出了一种称为 Single-Shot Meta-Pruning 的方法,该方法致力于压缩深度预训练的 Transformer 模型,并集中于可以自适应地为不同的下游任务剪枝不必要的注意力头。与现有的预训练模型压缩方法相比,我们的方法可以降低精调和推理的开销,并且可以选择性地剪枝 50%的注意力头,对下游任务的性能几乎没有影响,甚至提供更好的文本表示。
Nov, 2020
介绍了一种有效的基于鉴别力的通道剪枝方法,利用额外的损失函数增加中间层的鉴别力并根据重构误差和额外损失函数选择最具鉴别力的通道,并提出了一种迭代贪心算法来优化参数和通道选择。对类似于 ILSVRC-12 的测试数据,使用该算法对 ResNet-50 剪枝显示出相当有效的性能。
Oct, 2018
本文提出了一种简单而有效的基于数据驱动优化的频道修剪方法,该方法通过每层发现必要的宽度,以非均匀修剪 ResNet-50 等深度神经网络,实现了与现有方法相同的 FLOP 降低率,同时提高了 0.98%的准确度,并优于其他深度神经网络如 ResNet-34 和 ResNet-18。
May, 2020