May, 2024

LoRA 学习更少,遗忘更少

TL;DR通过在编程和数学这两个目标领域上比较 Low-Rank Adaptation (LoRA) 和全精调 (full finetuning) 的性能,我们发现在大多数情况下,LoRA的表现明显逊于全精调;然而,LoRA展现了一种理想的正则化形式,并且可以更好地保持基础模型在目标领域之外的任务表现,同时比传统技术如权重衰减和dropout提供了更强的正则化效果,并有助于生成更多样化的结果。我们还发现全精调学习到的扰动比典型LoRA配置的秩高10-100倍,这可能解释了一些报告中的差距。最后,我们提出了在使用LoRA进行精调时的最佳实践建议。