使用大型语言模型的知识图谱上的多跳问答
利用压缩的知识图作为输入,我们的方法在使用较少标记表示支持文档中与查询相关信息方面比现有方法利用高达 67% 的标记。我们的实验证明,在两个流行的基准数据集(HotpotQA 和 MuSiQue)上,我们的方法在多个指标(EM,F1,BERTScore 和人类评估)上持续改进。
Jun, 2024
本文提出了一种利用经典逻辑编程语言来装备大型语言模型(LLMs)的方法,以在知识图谱(KG)上回答自然语言问题,从而提供可解释性解决方案。作者使用 MetaQA 数据集证明了该方法的有效性。
Mar, 2023
这篇研究论文探讨了如何使用自然语言问答,相结合的语言模型和 KG 嵌入来回答生物学家们所提出的一系列自由形式的问题,其 KG 数据集来源于 Hetionet,并利用该数据集创建一个多跳生物医学问答数据集以测试多跳生物医学问答系统。
Nov, 2022
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的作用,并通过分类 LLM-KG 交互、研究方法论和合作使用以及潜在偏见等结构化分析,提供了它们的结合潜力的新见解。该研究强调了它们的交互对于提升人工智能应用的重要性,并概述了未来的研究方向。
Jun, 2024
使用大型语言模型,该研究论文介绍了一种学术知识图谱问答(KGQA)系统,通过少量示例解决书目自然语言问题。模型使用基于 BERT 的句子编码器来识别与给定测试问题相关的前 n 个相似训练问题,并检索它们对应的 SPARQL 查询。利用前 n 个相似问题 - SPARQL 对作为示例以及测试问题创建提示,并将其传递给大型语言模型以生成 SPARQL 查询。最后,在底层知识图谱(Open Research KG)端点上运行 SPARQL 查询并返回答案。该系统在 Scholarly-QALD-23 挑战基准中的 SciQA 数据集上获得了 99.0% 的 F1 分数。
Nov, 2023
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
通过在知识图谱(KG)上选择推理路径并结合思维链(CoT)和 PageRank 的子图检索方法,本文整合和优化了一个基于大型语言模型(LLM)的管道,可以减少对 LLM 的依赖。最终,RoK 证明了使用较少的 LLM 调用可以达到相同的结果。
Apr, 2024
本研究提出一种基于图形提取算法和大型语言模型的解耦合语言引导抽象推理方法,将复杂的知识图推理作为上下文知识图搜索和抽象逻辑查询推理的组合,显著提高了复杂查询的性能。
May, 2023
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023