Feb, 2024

参数高效调整中的分析与降低灾难性遗忘

TL;DR在研究中我们发现,当大型语言模型在复杂多样的特定领域下任务中不断进行微调时,对历史任务的推理性能会显著降低,这就是所谓的灾难性遗忘问题。本文通过模态连接性的透镜,调查了连续LLM微调场景中不同极小值之间的几何连接,发现它可以在可塑性和稳定性之间取得平衡。基于这些发现,我们提出了一种称为Interpolation-based LoRA(I-LoRA)的简单而有效的方法,它基于LoRA参数插值构建了双记忆经验回放框架。在八个特定领域的连续学习基准测试上的广泛实验和分析表明,I-LoRA始终比先前的最先进方法取得显著提升,性能提高了高达11%,为大型语言模型连续学习问题提供了强大的基准和研究启示。