从头开始剪枝
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
该研究旨在通过初始修剪神经网络来提高训练和测试时的资源效率。通过保留网络中的梯度流,提出了一个名为 GraSP 的简单但有效的剪枝标准,并在 VGGNet 和 ResNet 架构上进行了广泛实验,证明其在极度稀疏的情况下具有更好的性能。
Feb, 2020
神经网络稀疏化通过减少模型大小、计算复杂度和内存占用的同时保持竞争性能,成为在资源受限设备上部署的有效技术。本研究开发了适应神经网络稀疏化的全程训练流程,利用非标准模型参数初始化、预修剪训练方法和后修剪训练优化等技术,实现了显著提升于当前最先进的神经网络稀疏化方法的效果。
Dec, 2023
本论文研究在 NLP 领域中,对预训练的 Transformers 模型采取稀疏剪枝 (sparse pruning) 技术,相较于对其通道与层数的压缩,稀疏剪枝的效果更为显著。通过基于 GLUE 数据集的实验比较,证明本论文所采用的知识感知的稀疏剪枝方法可以实现 20 倍的参数 / FLOPs 压缩并且不会明显损失模型的性能。
Apr, 2021
本文提出了一种新的网络剪枝方法,通过神经结构搜索直接搜索灵活的通道和层大小, 最小化剪枝网络的失误实现通道和层大小的学习,提高了传统的网络剪枝方法, 并有效地区别了不同搜索和知识转移方法的效果。
May, 2019
提出了一种新的神经网络卷积核剪枝方法,通过 Taylor 扩展来近似剪枝参数变化引起的代价函数的改变,并结合反向传播的微调来保持剪枝网络的良好泛化性能,该方法在细粒度分类任务中表现出优异的性能。
Nov, 2016
基于大规模预训练模型,提出了一种适用于低能力设备的可伸缩单次剪枝方法,利用类似任务的剪枝知识从预训练模型中提取一个子网络来适应新任务,实验证明该方法在处理具有不同内存限制的多样化下游任务时,在准确性和效率方面始终优于流行的剪枝基准方法。
Jul, 2023
本文提出了一种简单而有效的基于数据驱动优化的频道修剪方法,该方法通过每层发现必要的宽度,以非均匀修剪 ResNet-50 等深度神经网络,实现了与现有方法相同的 FLOP 降低率,同时提高了 0.98%的准确度,并优于其他深度神经网络如 ResNet-34 和 ResNet-18。
May, 2020
本研究提出了一种基于背包问题和内部知识蒸馏的神经网络剪枝方法,该方法能够在优化被剪枝网络的最终准确性的同时,从过度参数化的母网络的内部层中提取知识,并使用块分组方法来处理复杂的网络结构。该方法在 ImageNet、CIFAR-10 和 CIFAR-100 数据集上都取得了 state-of-the-art 的准确率表现,并且能够产生与 EfficientNet-B0、MobileNetV3 相同 FLOPs 但更高准确率的网络结构。
Feb, 2020