Adapter-X: 一个新颖的面向视觉的普适参数高效微调框架
该研究介绍了一种新的适应方法,使用 UniPELT 框架作为基础,并添加了 PromptTuning 层,从而在保持竞争力的同时显著减少了可训练参数的数量。该方法利用适配器实现了预训练模型向新任务的有效转移,无需重新训练基础模型参数。通过对三个不同数据集进行评估,研究结果表明,该基于适配器的方法在性能上与全模型微调、DAPT+TAPT 和 UniPELT 策略相当,而需要更少或相同数量的参数。这种参数效率不仅减轻了计算负担,还加快了适应过程。该研究强调了适配器在实现高性能以及显著节约资源消耗方面的潜力,为参数高效微调的未来研究方向提供了有益的提示。
May, 2024
通过适配器模块实现神经网络参数共享,避免针对每个任务都需要重新训练整个神经网络的问题。将适配器模块应用于 BERT Transformer 可以达到接近完全微调的性能,同时每个任务只需增加 3.6%的可训练参数,表现十分出色。
Feb, 2019
引入 X-PEFT,一种新的参数高效微调方法,通过微调极小的紧凑张量,作为二进制掩码来自适应地选择给定适配器,从而解决适配器数量线性增加的问题,相较于传统的适配器微调,在每个配置文件的内存需求减少了 10000 倍,而在 LaMP 和 GLUE 任务中表现出与传统适配器微调相当或超越的效果。
Jan, 2024
本文提出 LLMs-Adapters 框架,利用少量可调参数对小型 LLMs 进行 fine-tuning,实现对各种任务的支持;在六种数学推理数据集上的实验表明,将 adapter-based PEFT 应用于小型 LLMs(7B)可以取得与强大的 LLMs(175B)相似甚至更优秀的性能,旨在推进 adapter-based PEFT 的研究,为 LM 大规模的 fine-tuning 提供了有价值的工具和框架。
Apr, 2023
本文旨在探索将 Parameter-Efficient Fine-Tuning (PEFT) 技术应用于基于图的任务,提出了一种名为 G-Adapter 的新型结构感知 PEFT 方法,并使用 Bregman Proximal Point 方法进一步缓解特征分布变化问题,研究结果表明,G-Adapter 相对于现有的 PEFT 方法,在 9 个基于图的基准数据集上获得了最先进的性能,并且相比于传统的方法提供了巨大的内存节省。
May, 2023
基于 Protoype 的 HyperAdapter(PHA)是一个建立在 adapter-tuning 和超网络的新框架,它采用实例密集检索器和原型超网络以更有效地生成条件模块,从而在多任务学习和少样本迁移学习中与现有的参数有效微调(PEFT)方法相比具有可比较的性能改进,并在数据规模较小时,与其他强基准相比,取得了显著的优势。基于对各种数据集的大量实证实验,我们证明 PHA 在可训练参数、模型精度和样本效率之间取得了更好的平衡。
Oct, 2023
通过对多个 adapter、任务和语言在有监督和跨语言零 - shot 设置中进行广泛实验,作者发现对于自然语言理解任务,adapter 的参数效率并不会转化为与全微调一样的效率优势。同时,使用多任务训练通过全微调也能达到与 adapter 相同的可维护 / 可扩展性,而且提供相对更快的训练时间。因此,作者推荐在 NLU 任务中,从业者应该依赖于全微调或多任务训练而不是使用 adapter。
May, 2023
XMAdapter 是一种跨模态参数高效的适配器方法,通过建立文本和图像的缓存模型,并利用视觉 - 语言双模态信息进行检索以获得推理线索。通过动态调整关联比例实现跨模态融合,解耦不同模态相似性以评估其各自的贡献,并通过适应性调整样本学习强度来增强模型性能。实验结果表明,XMAdapter 在准确性、泛化能力和效率方面明显优于以前的基于适配器的方法。
Apr, 2024
本文针对跨模态参数高效的图像到视频传递学习进行了研究,并提出了一种新的适应器 ——Spatio-Temporal Adapter,可以在较小的成本下实现有关动态视频内容的空时推理能力,并在视频动作识别任务上匹配或超越完全微调策略和最先进的视频模型,同时又具有参数效率的优势。
Jun, 2022