检索增强的多语言知识编辑
通过多个语言中的多跳推理和单跳问题,MLaKE(多语言语言知识编辑)评估了知识编辑方法在多语言环境下的适应性,发现现有方法在英语样本上表现较好,但在多语言实验中的泛化能力有限,强调了多语言知识编辑的发展需求。
Apr, 2024
大型语言模型 (Large Language Models) 在理解和生成与人类交流非常相似的文本方面表现出非凡的能力。然而,由于其广泛的参数化,训练过程中存在重大的计算需求限制。这种挑战由于世界的动态性而进一步加剧,需要经常更新 LLM 以纠正过时的信息或整合新知识,从而确保它们持续具有相关性。近年来,对于即时修改模型的高效轻量级方法引起了越来越多的关注。本文首先定义了知识编辑问题,然后提供了对最前沿方法的全面回顾。在教育和认知研究理论的启发下,我们提出了一个统一的分类准则,将知识编辑方法分为三类:利用外部知识、将知识合并到模型中以及编辑内在知识。此外,我们引入了一个新的基准 KnowEdit,以对代表性的知识编辑方法进行综合实证评估。此外,我们对知识定位进行了深入分析,从而更深入地了解 LLM 固有的知识结构。最后,我们讨论了知识编辑的几个潜在应用,并概述了它的广泛而有影响力的意义。
Jan, 2024
介绍了大型语言模型(LLMs)的计算成本问题以及知识模型编辑(KME)领域中的最新进展和分类技术,探讨了方法的洞见、优势、限制以及实际应用和挑战,并提出了未来研究方向。
Oct, 2023
本文旨在研究知识编辑领域中源语言编辑对不同目标语言的交叉效应,通过将 ZsRE 从英文翻译成中文,构建大规模的跨语言合成数据集,对不同范式的知识编辑方法进行英文和中文的编辑,并评估其在不同方面的性能。进一步分析编辑模型的不一致行为并讨论其挑战。
Sep, 2023
通过研究发现,Parameter-Efficient Fine-Tuning (PEFT) 技术相较于定位和编辑方法,在时效性知识编辑方面表现更优,从而为大型语言模型的更新提供了一种替代方案。
Jun, 2024
以 53 种不同的语言为基础,评估跨语言知识编辑的 BMIKE-53 基准的多语言上下文知识编辑(MIKE)方法,提供了关于可靠性、普适性、局部性和可移植性的重要见解和框架,为跨语言知识编辑的未来研究奠定了基础。
Jun, 2024