边缘修剪中的 Transformer 电路寻找
本文提出一种新的精确剪枝技术,利用有效的最优传输方案,使得算法自动调整探索 - 开发行为,从而在 3 个不同的数据集、5 个不同的模型、各种剪枝比例和两种稀疏度预算和剪枝颗粒度等方面均取得了先进的性能。
Jul, 2023
提出 AE-BERT,一种自动和高效的 BERT 剪枝框架,可在资源受限设备上实现基于 Transformer 自然语言处理模型并提高准确性。实验结果表明,在压缩模型后,与 CPU 相比使用 AE-BERT 产生的 BERT 基础编码器子网络可以在类似的总剪枝比率下获得更高的分数,并提高推理时间。
Jun, 2022
通过对 Transformer 架构进行参数剪枝的优化策略,通过广泛实验和超参数选择,研究发现可以在不牺牲性能的情况下显著减少模型大小,并改善通用性能,从而在深度学习应用方面实现更可扩展和环境友好的方式。
Oct, 2023
我们研究了应用于基于 Transformer 的语音识别神经网络语言模型的模型修剪方法。我们探究了修剪框架的三个方面,即准则、方法和调度器,分析了它们在准确性和推理速度方面的贡献。除此之外,我们提出了一种适用于渐进式压缩模型、并可以交付多个具有不同目标尺寸的模型的低秩逼近的变体。我们的研究结果包括:a)在多种场景中,数据驱动的修剪效果优于基于幅度的修剪;b)渐进式修剪相比一次性修剪在准确性方面有更好的表现,特别是在目标尺寸较小时;c)对于中等压缩程度,低秩逼近提供了尺寸减小和推理加速之间的最佳平衡。
Oct, 2023
本文提出一种基于结构化稀疏方法的快速 Transformer 模型剪枝框架,无需重新训练即可保持高准确度,在 GLUE 和 SQuAD 数据集中分别实现了 2 倍的 FLOPs 减少和 1.56 倍的推理速度提升,在单个 GPU 上不到 3 分钟即可完成模型修剪。
Mar, 2022
基于 Transformers 的语言模型在自然语言处理中表现出色,但训练和推理仍然是一个重要的障碍。我们通过神经网络的角度来探索稀疏性方法,利用生物网络中的机制,如优先连接和冗余突触修剪,展示了基于模型的稀疏性方法在多样的 NLP 任务中表现出色,并且在训练时间上可快速到 10 倍,同时在许多情况下推理时间也有明显的改善。
Feb, 2024
通过在代价函数中加入推理代价的惩罚项,我们提出了使用算术电路进行学习的方法来构建可计算的、具有背景依赖独立性的贝叶斯网络,实验表明我们的算法能够在极短的时间内学习出大量具有可追溯的模型和比标准贝叶斯网络更准确的预测。
Jun, 2012
本论文研究在 NLP 领域中,对预训练的 Transformers 模型采取稀疏剪枝 (sparse pruning) 技术,相较于对其通道与层数的压缩,稀疏剪枝的效果更为显著。通过基于 GLUE 数据集的实验比较,证明本论文所采用的知识感知的稀疏剪枝方法可以实现 20 倍的参数 / FLOPs 压缩并且不会明显损失模型的性能。
Apr, 2021
本文研究了基于 transformer 的预训练语言模型的硬件友好型块结构裁剪技术,通过加入一项称为 “留组拉索” 的优化算法来进行裁剪操作并达到高压缩率,同时实验表明该方法适用于迁移到资源受限的边缘设备上。
Sep, 2020