三元组检索的图式推理问答
该研究提出了一种新模型QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域QA测试中优于现有模型的表现。
Apr, 2021
通过多跳推理,我们提出了一种与知识图中的关系类型数量成比例的方法,具有出色的可扩展性,可以用于实现多项元QA数据集的目的,并实现了更具挑战性的WebQuestionsSP的最新技术水平。
Oct, 2021
本研究提出了一种可训练的子图检索器(SR),它与后续的推理过程分离,可增强任何以子图为导向的KBQA模型,并通过弱监督的预训练以及端到端的微调,与NSM组合成为新的基于嵌入的KBQA方法的最新的最先进的表现。
Feb, 2022
该论文提出了一种名为ReaRev的 KGQA 推理方法,旨在提高指令解码和执行的效率,通过自适应更新初始指令以及使用图神经网络模拟广度优先搜索策略,该方法在三个 KGQA 基准测试中得到了比目前最先进的方法更好的表现,特别是在处理复杂问题或不完整知识图谱时。
Oct, 2022
UniKGQA是一种新的多跳知识图谱问答方法,通过统一检索和推理模型架构和参数学习,基于预训练语言模型的语义匹配模块和匹配信息传播模块进行问题与关系的语义匹配,采用共同的预训练任务和检索以及推理定向的微调策略。
Dec, 2022
Question Answering over Knowledge Graph (KGQA) aims to seek answer entities for the natural language question from a large-scale Knowledge Graph. To better perform reasoning on KG, recent work typically adopts a pre-trained language model (PLM) and a graph neural network (GNN) module, but these are not closely integrated. This paper proposes ReasoningLM, a more capable PLM that directly supports subgraph reasoning for KGQA, outperforming state-of-the-art models.
Dec, 2023
给定具有文本属性的图,我们使用对话界面使用户能够与其图进行交流,在回答用户问题时提供文本回复并突出显示图的相关部分。通过开发我们的图问题回答(GraphQA)基准和集成GNN、LLM和RAG的G-Retriever方法,我们在多个领域的文本图任务中超越基准,而且可以适应更大的图大小并抗幻觉。
Feb, 2024
本文介绍了GNN-RAG,一种将LLMs的语言理解能力与GNNs的推理能力以检索增强生成(RAG)风格相结合的新方法。通过GNN在稠密的KG子图上推理,提取连接问题实体和答案候选的最短路径,将其转化为LLM推理的输入。实验证明,GNN-RAG在WebQSP和CWQ这两个广泛使用的KGQA基准测试中取得了最先进的性能,在7B调整的LLM上胜过或与GPT-4性能相匹配。此外,GNN-RAG在多跳和多实体问题上表现出色,其答案F1得分超过竞争方法8.9-15.5%。
May, 2024
本研究解决了现有知识图谱(KG)在大型语言模型(LLM)中的利用方式不足的问题,提出了一个名为DoG的新框架,它通过定义良好形成的链条增强了LLM和KG之间的深度协同。本研究的关键发现是,采用图感知的约束解码方法能够确保为KG问答(KGQA)生成忠实且合理的推理轨迹,从而提升了模型在多种KGQA任务上的性能。
Oct, 2024