多任务深度神经网络的结构剪枝
本研究使用 VGG-16 模型作为示例,测量了各种结构模型修剪方法和数据集(CIFAR-10 和 ImageNet)在 Tensor Processing Units(TPUs)上的准确性和效率之间的权衡,使用 TensorFlow2 开发了一个结构模型修剪库以在 TPUs 上显着提高模型内存使用和速度而不失准确性,这尤其适用于较小的数据集(如 CIFAR-10)。
Jul, 2021
本文提出了一种自适应基于激活的结构化裁剪方法,以自动高效地生成满足用户要求的小型、准确和硬件高效的模型,它提出了迭代性结构化裁剪和自适应剪枝策略,可在不降低精度的情况下大幅减少参数和 FLOPs
Jan, 2022
本文提出了一种新的修剪方法,用于在不影响恢复精度的情况下减小图像修复网络的尺寸,该方法根据每个层的不同计算复杂度和性能要求确定 N:M 结构稀疏的修剪比,通过大量的实验结果表明,该方法在超分辨率和去模糊任务中的表现优于以前的修剪方法。
Apr, 2022
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达 93% 的稀疏度与 95% FLOPs 的减少,同时在分类和分割问题上超过了先进水平,并且避免了在 GPU 上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
本研究评估了基于结构化剪枝在多语言预训练语言模型上的三个方面:设置、算法和效率,并通过在九个下游任务中的实验展示了一些反直觉现象。为了方便各个稀疏度水平上的比较,我们提出了一种简单的方法 —— 动态稀疏化,它可以让模型只需要训练一次就能适应不同的模型大小。我们希望这项工作填补了关于多语言预训练模型上的结构化剪枝研究的空白,并为未来的研究提供启示。
Apr, 2022
结构化修剪技术 (SPA) 是一种适用于不同架构、框架和修剪标准的多功能架构修剪框架,通过使用标准化计算图和 ONNX 表示法来实现对神经网络的修剪,并通过分组级别的重要性估计方法来进行修剪。在对比实验中,SPA 在不同架构、流行框架和不同修剪时间上表现出与现有技术相当的修剪性能。OBSPA 是一种无需微调或校准数据即可实现最先进的修剪结果的算法。
Mar, 2024
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018