Jan, 2024

LoRA 链:通过剩余学习对语言模型进行高效微调

TL;DR通过梯度投影方法,我们提出了一种新的迭代优化框架 COLA,通过将学习的链式 LoRA 模块与预训练的语言模型参数进行融合,并为新生成的 LoRA 模块重新初始化优化过程,从而在无需额外的计算和内存成本的情况下弥合了 LoRA 和完全参数微调之间的差距。