本研究聚焦于前缀调整 fine-tuning 技术,并提出了自适应前缀调整(APT)方法,结合门控机制实现对细粒度和粗粒度级别的前缀优化,实证实现了在 SuperGLUE 和 NER 数据集上的有效性和效率验证。
May, 2023
本文提出了一个名为 LoRAPrune 的统一框架,旨在实现高性能的大规模预训练模型的高效微调和部署,其中使用了 PEFT 感知的剪枝标准和基于 Low-Rank Adaption(LoRA)的梯度值和梯度的重要性估计,通过迭代剪枝过程以最大化 PEFT 的优点来删除冗余参数,实现了高精度和高压缩比的目标。实验结果表明,我们的方法在各个任务中都达到了最先进的结果,并且在 VTAB-1k 基准测试中,使用可训练参数的仅 0.76%,产生的平均 Top-1 准确率比幅度和移动剪枝方法高 5.7%和 4.3%,在保留微调优点的同时实现与 PEFT 方法可比较的性能。
探讨了一种基于网络剪枝的高效的神经架构搜索方法用于学习预训练模型的参数优化方法 (Parameter-efficient tuning),并在 GLUE 上的实验结果表明算法的有效性以及 PET 网络结构设计的实际表现。
该论文提出了一种通过学习区分微调和适应性 PLMs 的方法,使用动态低秩重参数化和学习结构控制器来实现数据和参数高效的自适应,并在对话完成、摘要生成等任务上展示出明显提升。
Jul, 2022
本研究旨在将后训练量化与仅对定向任务的一些部分进行量化的精细调整相结合,以使模型更加快速且效率更高,我们提出了 AlphaTuning 控制模型的大小,通过二进制编码量化、调整二进制参数和针对下游任务进行唯一的倍数调整,证明我们的方法在 11 种下游任务上使用 4 位或更高的量化精度时,仅使用总参数数量的 1/10 进行细调。
Oct, 2022
在大语言模型时代,提高计算资源的有效利用需求变得非常重要。本文基于 LoRA 精调方法,引入了一种新颖的参数高效训练技术,通过频繁改变可训练参数的一部分,提高了有效的预训练。我们的方法不仅在预训练阶段实现了内存和计算开销减少,与当前最先进的参数高效算法相当,而且保持了与完全预训练相当的准确性水平。我们提供了理论分析和实证证据来证明我们的方法的有效性。
Jun, 2024
本文介绍了一个包含 LoRA 和结构化层剪枝的模型微调框架,用于对医学报告进行摘要提取,并且该框架可以通过微调少量参数和剪枝一部分 Transformer 层,加速了训练速度,减少 GPU 内存的使用,并且保持自由文本生成质量的同时,提高了模型的效率和效益。
通过在 transformer 模块的键和值中直接插入提示信息,我们提出了注意力提示调整(Attention Prompt Tuning,APT)方法,从而在视频行为识别中大大减少了浮点运算和延迟,并在 UCF101、HMDB51 和 SSv2 数据集上实现了显著的性能提升。
Mar, 2024
本文研究了基于 Adapter 的微调方法。实验证明,对于某些具有挑战性的任务,Adapter-based tuning 方法比 fine-tuning 效果更好,并且更抗过拟合和更不敏感于学习率的变化。
Jun, 2021
预训练语言模型与基于它们的参数高效微调方法被综合评述,重点讨论了内存效率和计算资源限制等参数效率问题以及应用于下游任务的挑战和机遇。
Dec, 2023