Jan, 2024

大型语言模型微调遗忘的缩放律

TL;DR对细调预训练大型语言模型在下游任务中的忘记问题进行研究和量化,发现参数高效的细调策略仍然存在灾难性的忘记问题,特别是细调带有 Low-Rank Adapters(LoRA)的语言模型在性能和遗忘量之间存在强烈的线性关系,研究还给出了精确的缩放规律,显示遗忘量随着细调参数数量和更新步数呈现移位幂律的增长,同时考察了遗忘对知识、推理和 Llama 2 7B 聊天机器人中的安全保障的影响,研究表明无法通过提前停止或调整细调参数数量来避免遗忘问题,这为未来评估和开发减轻遗忘问题的细调方案开辟了重要的安全关键方向。