May, 2024

大型语言模型的外部和参数知识融合评估

TL;DR融合外部知识到大型语言模型(LLMs)中,以克服其古老且静态参数化记忆所带来的局限性,增强 LLMs 在知识整合方面的能力成为很有前景的解决方案。然而,先前的研究倾向于过度依赖外部知识,低估了 LLMs 内在参数化知识的宝贵贡献。尤其是在外部知识不完整且需要参数化知识补充的情况下,LLMs 在混合外部和参数化知识方面的有效性仍然未被广泛探索。本研究将知识融合拆解成四个不同的场景,并首次对 LLMs 在每个场景下的行为进行了系统研究。我们开发了一个系统化的数据构建和知识注入流程来模拟这些融合场景,从而进行了一系列的对照实验。我们的调查结果表明,增强 LLMs 内部的参数化知识可以显著增强它们的知识整合能力。然而,我们发现在记忆和引出参数化知识以及确定参数化知识边界方面仍然存在挑战。我们的研究结果旨在引导未来对 LLMs 内部外部知识协调的探索。