在知识编辑中利用逻辑规则:锦上添花
基于可编程的知识编辑,本研究提出了一种适用于多跳问题回答的框架(PokeMQA),通过解耦任务,使用分离的可训练范围探测器引导大型语言模型(LLMs)对知识增强的多跳问题进行分解,同时根据外部冲突信号调节 LLMs 的行为,从而在 MQA 的知识编辑方面表现出卓越的性能,以显著优势击败所有竞争对手,并始终产生可靠的推理过程。
Dec, 2023
多跳问题回答(MQA)与知识编辑(KE)相结合的研究引起了广泛关注,然而现有的 MQA 模型在处理带有明确时间背景的问题时性能较差。为了解决这一限制,我们提出了一种新的框架,即 TEMPLE-MQA,通过构建时间感知图(TAG)来有效区分问题查询中的时间背景,并通过推理路径、结构检索和联合推理阶段来增强多跳问题回答。在基准数据集上的实验证明,TEMPLE-MQA 明显优于基准模型。此外,我们还贡献了一个新的数据集,即 TKEMQA,它专门针对具有时间范围的多跳问题回答领域。
Mar, 2024
本文提出了一种利用经典逻辑编程语言来装备大型语言模型(LLMs)的方法,以在知识图谱(KG)上回答自然语言问题,从而提供可解释性解决方案。作者使用 MetaQA 数据集证明了该方法的有效性。
Mar, 2023
本文介绍了一种基于控制语言 CNL 的知识编写和查询方法,通过对 KALM 系统的扩展,提出了可以回答更复杂问题的 KALM-QA,并与机器学习方法进行了对比,结果表明 KALM-QA 在回答电影相关问题方面能够达到 100% 的准确率。
Jul, 2019
本文探讨了在大型语言模型中注入新事实的技术,并提出了一个包含多跳问题的基准测试 MQuAKE,旨在评估修改后的模型是否能够正确回答受编辑事实影响的问题。我们提出了一个名为 MeLLo 的基于记忆的方法,存储所有编辑过的事实,并提示语言模型根据编辑后的事实迭代生成与之一致的答案。MeLLo 在大型语言模型(高达 175B)中具有良好的可扩展性和超过以往模型编辑器的性能。
May, 2023
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
该研究构建了一个名为 RaKE 的基准,专注于基于关系的知识编辑,并通过创新的评估指标和全面的实验研究,确认了关系在事实三元组中的作用,为未来的基于关系的知识编辑方法提供了实验支持。
Nov, 2023
利用大型语言模型 (ChatRule) 在知识图谱中挖掘逻辑规则,包括基于语义和结构信息的规则生成器以及利用现有知识图谱评估和验证规则的模块,展示了方法的有效性和可扩展性。
Sep, 2023