多跳知识库问答的子图检索增强模型
我们提出了一种基于图的方法 CBR-SUBG,利用相似的子图和潜在的推理模式来回答在知识库中问答。我们还提出了一种自适应的子图收集策略,以选择一个紧凑的子图,并显示 CBR-SUBG 可以与最佳模型竞争地回答需要子图推理模式的查询。
Feb, 2022
提出了一种简单而有效的方法来检索和重新排序与问题回答相关的三元组,并将它们与问题连接以提高语言模型的表现,实验结果显示,其在常识问答和开放式书本问答数据集上均表现优于现有的最佳方法。
May, 2023
提出了一种基于子图分区的图增强学习排序模型,该模型整合了子图匹配网络和增强双边多角度匹配模型,用于知识图谱问答中的答案选择。在多个基准数据集上的实验结果表明,该方法具有很好的效果。
Nov, 2021
UniKGQA 是一种新的多跳知识图谱问答方法,通过统一检索和推理模型架构和参数学习,基于预训练语言模型的语义匹配模块和匹配信息传播模块进行问题与关系的语义匹配,采用共同的预训练任务和检索以及推理定向的微调策略。
Dec, 2022
介绍了一种基于图形的循环检索方法,学习在 Wikipedia 图形上检索推理路径来回答多跳开放域问答问题。该方法在三个开放域 QA 数据集上实现了最新技术成果,特别是在 HotpotQA 中表现出显著的改进,超过了以前最好的模型 14 个百分点以上。
Nov, 2019
本文提出了一种新的基于超图的模型,用于解决知识库视觉问答中的多跳推理问题。该模型可以将高级问题的语义和知识库相结合,并通过超图内部和跨越两个超图之间的关联编码来预测答案。我们的实验证明了该方法的有效性。
Apr, 2022
本论文提出了一种新颖的知识感知方法,将预训练语言模型与多跳关系推理模块相结合,对外部知识图谱子图进行多跳关系推理。该方法统一了基于路径的推理方法和图神经网络,提高了可解释性和可伸缩性,并在常识问答和开放式书面问答数据集上证明了其有效性和可伸缩性,并通过案例研究进行了解释。
May, 2020
Question Answering over Knowledge Graph (KGQA) aims to seek answer entities for the natural language question from a large-scale Knowledge Graph. To better perform reasoning on KG, recent work typically adopts a pre-trained language model (PLM) and a graph neural network (GNN) module, but these are not closely integrated. This paper proposes ReasoningLM, a more capable PLM that directly supports subgraph reasoning for KGQA, outperforming state-of-the-art models.
Dec, 2023
本文提出了一种基于 AQG(一种统一的图形文法)的端到端模型,由高级解码生成用于约束搜索空间的 AQG 和底级解码构造查询图,旨在优化查询图构建过程,提高在复杂 KGQA 基准测试中的表现。
Nov, 2021