Jan, 2024

LoRA链:通过剩余学习对语言模型进行高效微调

TL;DR通过梯度投影方法,我们提出了一种新的迭代优化框架COLA,通过将学习的链式LoRA模块与预训练的语言模型参数进行融合,并为新生成的LoRA模块重新初始化优化过程,从而在无需额外的计算和内存成本的情况下弥合了LoRA和完全参数微调之间的差距。