编辑语言模型中的事实知识
本研究提出了一种新的任务,即在不影响其余表现的情况下编辑语言模型 KG 基础嵌入,并构建了四个新数据集来评估多个知识编辑基线和一种名为 KGEditor 的新方法,其利用超级网络的其他参数层来编辑和添加事实,实验结果表明 KGEditor 可以在具有低训练资源但需要更新特定事实的情况下表现更好。
Jan, 2023
大型语言模型(LLMs)通常存在知识截断或谬误问题,为解决此问题,我们提出了 EasyEdit,一个易于使用的 LLMs 知识编辑框架,它支持各种前沿的知识编辑方法,并在可靠性和推广性方面超过了传统微调。
Aug, 2023
该论文探索了在大型语言模型中编辑概念性知识的能力,通过构建一个新的基准数据集 ConceptEdit 和建立一套新的度量标准来评估现有的编辑方法。实验结果表明,虽然现有的编辑方法在某种程度上能有效地修改概念级别的定义,但也有可能扭曲大型语言模型中相关的实例化知识,导致性能下降。这对于更好地理解大型语言模型的能力具有启发意义。
Mar, 2024
大型语言模型 (Large Language Models) 在理解和生成与人类交流非常相似的文本方面表现出非凡的能力。然而,由于其广泛的参数化,训练过程中存在重大的计算需求限制。这种挑战由于世界的动态性而进一步加剧,需要经常更新 LLM 以纠正过时的信息或整合新知识,从而确保它们持续具有相关性。近年来,对于即时修改模型的高效轻量级方法引起了越来越多的关注。本文首先定义了知识编辑问题,然后提供了对最前沿方法的全面回顾。在教育和认知研究理论的启发下,我们提出了一个统一的分类准则,将知识编辑方法分为三类:利用外部知识、将知识合并到模型中以及编辑内在知识。此外,我们引入了一个新的基准 KnowEdit,以对代表性的知识编辑方法进行综合实证评估。此外,我们对知识定位进行了深入分析,从而更深入地了解 LLM 固有的知识结构。最后,我们讨论了知识编辑的几个潜在应用,并概述了它的广泛而有影响力的意义。
Jan, 2024
知识编辑是一种有效更新大型语言模型中的实际知识而最小化参数改动的新兴技术。然而,近期研究发现一些令人担忧的副作用,如知识扭曲和综合能力下降,这在编辑后产生了。本调查综合研究了这些副作用,提供了一个统一的观点,对于 LLMs 中的知识编辑所面临的挑战进行了讨论。我们讨论了相关工作,并总结了克服这些限制的潜在研究方向。我们的工作强调了当前知识编辑方法的限制,强调了对 LLMs 内部知识结构的更深入理解和改进的知识编辑方法的需求。为促进未来研究,我们已公开发布了补充材料,如论文集,网址为 https URL。
Jun, 2024
知识编辑技术可以更新语言模型从预训练中学到的过时或不准确的知识,我们通过引入一个新的任务来研究如何检测语言模型中的编辑知识,提出了一个简单的分类器 RepReg,它可以在有限的训练样本下实现接近最优的性能。
May, 2024
通过在不更新参数的情况下展示上下文,利用 in-context learning (editing) 的策略可以达到和梯度下降方法相当的 GPT 大型语言模型知识编辑效果。
May, 2023
提出了两项模型编辑研究并在医学领域进行了验证,同时观察到当前模型编辑方法在医学知识的专业化和复杂性方面存在困难。因此,提出了一种用于医学模型编辑的新型分层可扩展适配器策略 MedLaSA。通过因果追踪来确定神经元中知识的准确位置,并在 LLMs 的密集层引入可扩展适配器,这些适配器基于相应的特定知识分配缩放值。在医疗 LLMs 上进行的大量实验证明了 MedLaSA 的编辑效率,且不影响未编辑的无关知识。
Feb, 2024
本文旨在探索对大型语言模型进行知识编辑可能带来的潜在问题,并提出了基准数据集和创新评估指标来研究这些问题。实验结果显示,知识编辑可能意外产生对大型语言模型的意想不到的后果,因此需要引起关注并进行进一步研究。
Oct, 2023
大规模语言模型的知识编辑可以提供一种有效的解决方案,以改变模型的行为而不会对整体性能产生负面影响。为了解决当前方法在任务上的有限泛化能力的问题,我们采取了第一步来分析知识编辑中的多任务泛化问题。具体而言,我们开发了一种基于指令的编辑技术,称为 InstructEdit,它通过简单的指令同时促进编辑器对不同任务性能的适应。通过仅使用一个统一的编辑器为每个大规模语言模型,我们经验证明 InstructEdit 可以提高编辑器的控制能力,在多任务编辑设置中可平均提高 14.86%的可靠性。此外,涉及未见任务的实验表明 InstructEdit 始终优于先前的强基准。为了进一步研究基于指令的知识编辑的基本机制,我们分析了编辑梯度方向的主要成分,发现指令可以帮助控制具有更强的无法覆盖的泛化能力的优化方向。代码和数据集将在此 https URL 中提供。
Feb, 2024