Oct, 2024

探索持续微调以提升大型语言模型的语言能力

TL;DR本研究解决了大型语言模型(LLMs)在学习新语言时,难以保持其已掌握语言(通常是英语)的性能的问题。研究提出了一个两阶段的持续微调过程,结果表明,第二阶段任务与第一阶段任务的相似性影响模型的适应性。同时,针对性能下降,分析了两种持续微调方法的变体,证实其在提升语言能力的同时保持任务性能的有效性。