解锁语言模型中的持续学习能力
本研究提出了一种新的方法,使用一系列未标记的领域语料库来连续培训语言模型,从而改善它们的最终任务绩效。该方法的关键创新点是一种软掩蔽机制,它直接控制语言模型的更新,同时提供了一个新的代理来保留原始LM中的通用知识。实证评估证明了所提方法的有效性。
Feb, 2023
该论文调研了关于大型语言模型(LLMs)的持续学习方面的最新工作,提出了一种新颖的多阶段分类方案,涉及持续预训练、指令调整和对齐;对LLMs的持续学习与更简单的小模型的适应方法以及其他增强策略进行对比;同时,在讨论基准和评估的基础上,提出了几个挑战和未来工作方向。
Feb, 2024
这篇论文研究了大型语言模型(LLMs)中不断学习(CL)领域的发展,重点是开发高效和可持续经验的训练策略。通过不断适应域预训练,我们的研究评估了LLMs在不同数据环境中的适应性和能力,并引入了一个新的基准来衡量这种适应能力,揭示了关于知识转移和模型大小的若干关键见解。
Feb, 2024
在研究中我们发现,当大型语言模型在复杂多样的特定领域下任务中不断进行微调时,对历史任务的推理性能会显著降低,这就是所谓的灾难性遗忘问题。本文通过模态连接性的透镜,调查了连续LLM微调场景中不同极小值之间的几何连接,发现它可以在可塑性和稳定性之间取得平衡。基于这些发现,我们提出了一种称为Interpolation-based LoRA(I-LoRA)的简单而有效的方法,它基于LoRA参数插值构建了双记忆经验回放框架。在八个特定领域的连续学习基准测试上的广泛实验和分析表明,I-LoRA始终比先前的最先进方法取得显著提升,性能提高了高达11%,为大型语言模型连续学习问题提供了强大的基准和研究启示。
Feb, 2024
该研究引入了可扩展语言模型(SLM)来解决现有方法在实际应用中遇到的限制和挑战,通过联合自适应重参数化(JARe)和动态任务相关知识检索(DTKR),实现了语言模型的自适应调节,从而在广泛的应用领域中实现了有效的持续学习。
Apr, 2024
大型语言模型具有解决语言相关任务的天赋,但由于它们静止于参数中的知识的局限性,存在无法应对信息变化和任务技能过时的问题。工具使用能帮助LLM通过接口获得外部系统的支持,但使用工具的LLM仍需适应不稳定的环境,并且需要学会使用预定义的工具。为验证这一观点,我们开发了一个合成基准并聚合了现有的自然语言处理任务,形成一个更加真实的测试场景。我们证明模型规模扩大并非解决方案,而不论是否使用工具,持续学习技术都能使工具型LLM更快适应并遗忘更少,凸显了它们作为持续学习者的潜力。
Apr, 2024
最近,基础语言模型(LMs)在自然语言处理(NLP)和计算机视觉(CV)领域取得了重要的成就。然而,由于灾难性遗忘的原因,它们仍然无法模拟类似人类的连续学习。为了解决这个问题,已经开发了各种基于连续学习(CL)的方法来改进LMs,并使其能够适应新任务而不会遗忘以前的知识。然而,目前对现有方法的系统分类和性能比较仍然缺乏,这是我们调查的空白。我们对基础语言模型中应用的基于CL方法的现有文献进行了全面回顾、总结和分类,如预训练语言模型(PLMs)、大型语言模型(LLMs)和视觉语言模型(VLMs)。我们将这些研究分为离线CL和在线CL,其中包括传统方法、基于参数效率的方法、基于指令调优的方法和连续预训练方法。离线CL包括领域增量学习、任务增量学习和类增量学习,而在线CL又分为困难任务边界和模糊任务边界设置。此外,我们概述了CL研究中使用的典型数据集和度量标准,并详细分析了LMs-based连续学习的挑战和未来工作。
May, 2024