QA-GNN: 用语言模型和知识图谱进行问答推理
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
本研究提出了一种新型模型 JointLK,通过联合 LM 和 GNN 的推理和动态 KG 的修剪机制解决现有 KG 增强模型在常识问题回答方面的局限性。通过一种新的密集双向注意模块,JointLK 在 LM 和 GNN 之间进行联合推理,并通过多步交互相互融合和更新两种模式的表征。接着,动态修剪模块使用联合推理生成的注意权重递归地修剪不相关的 KG 节点。在 CommonsenseQA 和 OpenBookQA 数据集上对 JointLK 进行评估,展示其对现有 LM 和 LM + KG 模型的改进以及其执行可解释推理的能力。
Dec, 2021
本文介绍了 GNN-RAG,一种将 LLMs 的语言理解能力与 GNNs 的推理能力以检索增强生成(RAG)风格相结合的新方法。通过 GNN 在稠密的 KG 子图上推理,提取连接问题实体和答案候选的最短路径,将其转化为 LLM 推理的输入。实验证明,GNN-RAG 在 WebQSP 和 CWQ 这两个广泛使用的 KGQA 基准测试中取得了最先进的性能,在 7B 调整的 LLM 上胜过或与 GPT-4 性能相匹配。此外,GNN-RAG 在多跳和多实体问题上表现出色,其答案 F1 得分超过竞争方法 8.9-15.5%。
May, 2024
本论文提出了一种新模型 GreaseLM,它将来自预训练语言模型和图神经网络的编码表示在多个层次的模态交互操作中融合,可以更可靠地回答需要考虑情境限制和结构化知识推理的问题。
Jan, 2022
本文介绍了一种基于知识图谱的问答系统,采取了一种新型的深度学习架构和端到端变分学习算法,可以同时处理问题中的噪声和多跳推理,在最新的基准数据集中取得了最优表现。
Sep, 2017
本文介绍了 Visual Question Answering——Graph Neural Network 模型,用于解决视觉理解中的概念层次推理问题,与现有模型相比,该模型将图像级别信息和概念知识进行了统一,并在 VCR 任务中取得了优于 Trans-VL 模型的最佳结果。此外,该模型还提供了跨视觉和文本知识领域的可解释性。
May, 2022
本研究分析使用预训练语言模型和图神经网络进行的问题回答,并发现即使是简单的图神经网络也可以在知识驱动的推理任务中胜过现有的复杂神经网络模块,这表明构建完整的知识驱动的问题回答的推理模块仍然是一个具有挑战性的开放问题。
Oct, 2021
本文提出了一种利用经典逻辑编程语言来装备大型语言模型(LLMs)的方法,以在知识图谱(KG)上回答自然语言问题,从而提供可解释性解决方案。作者使用 MetaQA 数据集证明了该方法的有效性。
Mar, 2023
Question Answering over Knowledge Graph (KGQA) aims to seek answer entities for the natural language question from a large-scale Knowledge Graph. To better perform reasoning on KG, recent work typically adopts a pre-trained language model (PLM) and a graph neural network (GNN) module, but these are not closely integrated. This paper proposes ReasoningLM, a more capable PLM that directly supports subgraph reasoning for KGQA, outperforming state-of-the-art models.
Dec, 2023