Oct, 2023

通过学习前缀子空间提高大型语言模型的泛化能力

TL;DR在稀缺数据情况下,本研究聚焦于大规模语言模型(LLMs)的精细调整,提出了一种基于神经网络子空间的方法,通过在参数空间中联合优化一个模型单纯形来增加LLMs的泛化能力。使用“Parameter Efficient Fine-Tuning”(PEFT)方法来学习连续前缀的整个单纯形,实验证明这种方法与原始方法相兼容,同时在适应few-shot学习设置的GLUE基准的变种上取得了优于sota方法的平均性能提升。