通过指令向量进行大规模语言模型精调的可解释性灾难性遗忘
大型语言模型在不断微调的过程中存在灾难性遗忘现象,尤其随着规模的增加,遗忘的严重程度也加剧,然而通过单独解码器模型BLOOMZ与编码器-解码器模型mT0的比较,发现BLOOMZ遗忘较少且保留更多知识,还观察到语言模型能够在不断微调中缓解语言偏见,同时通用指令微调有助于减轻大型语言模型在进一步微调过程中的遗忘现象。
Aug, 2023
微调语言模型会在特定任务上产生性能提升,但对其他任务可能造成能力抑制。为了恢复预训练能力,通过对任务进行翻译使其远离语言模型微调分布,发现可以恢复上下文学习能力,并使聊天机器人生成有害内容。
Sep, 2023
通过本研究,我们发现指导微调对大型语言模型产生了三个重要影响,包括了对指令识别的加强、对知识存储层次的对齐以及对单词关系学习的促进。这些发现有助于更深入地理解指导微调对大型语言模型行为变化的影响,并为未来解释和优化这些模型以适用于不同应用领域的研究打下了基础。
Sep, 2023
对细调预训练大型语言模型在下游任务中的忘记问题进行研究和量化,发现参数高效的细调策略仍然存在灾难性的忘记问题,特别是细调带有Low-Rank Adapters(LoRA)的语言模型在性能和遗忘量之间存在强烈的线性关系,研究还给出了精确的缩放规律,显示遗忘量随着细调参数数量和更新步数呈现移位幂律的增长,同时考察了遗忘对知识、推理和Llama 2 7B聊天机器人中的安全保障的影响,研究表明无法通过提前停止或调整细调参数数量来避免遗忘问题,这为未来评估和开发减轻遗忘问题的细调方案开辟了重要的安全关键方向。
Jan, 2024
在研究中我们发现,当大型语言模型在复杂多样的特定领域下任务中不断进行微调时,对历史任务的推理性能会显著降低,这就是所谓的灾难性遗忘问题。本文通过模态连接性的透镜,调查了连续LLM微调场景中不同极小值之间的几何连接,发现它可以在可塑性和稳定性之间取得平衡。基于这些发现,我们提出了一种称为Interpolation-based LoRA(I-LoRA)的简单而有效的方法,它基于LoRA参数插值构建了双记忆经验回放框架。在八个特定领域的连续学习基准测试上的广泛实验和分析表明,I-LoRA始终比先前的最先进方法取得显著提升,性能提高了高达11%,为大型语言模型连续学习问题提供了强大的基准和研究启示。
Feb, 2024
通过连续指令调整(CoIN)对多模态大型语言模型(MLLMs)进行评估,发现当前强大的MLLMs仍然存在灾难性遗忘,并提出了MoELoRA方法有效地保留了以前的指令对齐。
Mar, 2024
通过渐进对齐的假设,我们提出了一种新颖的分阶段指令微调(Phased IFT)方法,基于难度评分并使用逐步训练的方式显著地提高了预训练语言模型的指令遵循能力。
Jun, 2024
本文首次揭示了大型语言模型(LLMs)的模型损失面与遗忘程度之间的直接联系,并引入了锐度感知最小化方法来减轻 Catastrophic Forgetting,通过使损失面变得平坦。实验证明该方法在缓解 Catastrophic Forgetting 方面的效果显著,并且通过与现有的抗遗忘策略的结合,进一步增强了 LLMs 的抵抗能力。
Jun, 2024
该研究讨论了在大规模语言模型中出现的连续指导调整中的灾难性遗忘问题,并通过一种切换机制来解决此问题,使计算能够路由到参数高效调整的模型,该方法通过实验表明其在不同自然语言生成任务的连续指导调整中具有显著有效性。
Jul, 2024