EMNLPDec, 2023

评估语言模型中的事实编辑依赖关系:特殊性和隐含意识

TL;DR使用大型语言模型作为知识库的潜力引起了广泛关注。为了管理 LLMs 所获取的知识,我们需要确保学到的事实的编辑尊重内部逻辑约束,即被称为知识依赖性。然而,现有的 LLMs 编辑工作在处理一个事实与其逻辑蕴含之间的依赖关系时存在局限性。我们提出了一个评估协议和一个问答数据集 DepEdit,它提供了一个全面的评估编辑过程的依赖关系。我们的协议通过建立一个受控环境,在该环境中编辑事实并监测其对 LLMs 的影响以及基于 If-Then 规则的相关逻辑蕴含。对 DepEdit 的广泛实验表明,现有的知识编辑方法对知识的表面形式敏感,并且在推断编辑事实的逻辑蕴含方面表现受限。