Apr, 2023

LLM-Adapters:用于大型语言模型参数高效微调的适配器家族

TL;DR本文提出 LLMs-Adapters 框架,利用少量可调参数对小型 LLMs 进行 fine-tuning,实现对各种任务的支持;在六种数学推理数据集上的实验表明,将 adapter-based PEFT 应用于小型 LLMs(7B)可以取得与强大的 LLMs(175B)相似甚至更优秀的性能,旨在推进 adapter-based PEFT 的研究,为 LM 大规模的 fine-tuning 提供了有价值的工具和框架。