GNN 是否切实可行?重新审视 GNN 在问答中的应用
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
本文介绍了 GNN-RAG,一种将 LLMs 的语言理解能力与 GNNs 的推理能力以检索增强生成(RAG)风格相结合的新方法。通过 GNN 在稠密的 KG 子图上推理,提取连接问题实体和答案候选的最短路径,将其转化为 LLM 推理的输入。实验证明,GNN-RAG 在 WebQSP 和 CWQ 这两个广泛使用的 KGQA 基准测试中取得了最先进的性能,在 7B 调整的 LLM 上胜过或与 GPT-4 性能相匹配。此外,GNN-RAG 在多跳和多实体问题上表现出色,其答案 F1 得分超过竞争方法 8.9-15.5%。
May, 2024
本研究提出了 QAGCN—— 一种简单而有效的使用注意力图卷积网络的多步推理问题答案推导模型,避免了传统复杂推理机制的不稳定性和低至。经过广泛的实验,我们证明了 QAGCN 在几个具有挑战性的数据集上与当前最先进的基于深度强化学习的方法相比非常有竞争力,提高了效率并保持了高的解释性。
Jun, 2022
本文提出了一种基于图神经网络的两步推理模型(GNN2R),可以在只有问题 - 最终答案对的弱监督下高效地提供最终答案和推理子图作为最终答案背后的理由,从而解决了知识图谱中基于多跳问题回答的解释生成问题。该模型在实验中表现出优于现有最先进方法的效果、效率和生成解释的质量。
Dec, 2023
该研究提出了一种基于知识图谱的语义推理框架,以解决常识性问题,并通过引入 KagNet 模型和 ConceptNet 外部资源,取得了在常识 QA 数据集上的最佳表现。
Sep, 2019
提出了一种简单而有效的方法来检索和重新排序与问题回答相关的三元组,并将它们与问题连接以提高语言模型的表现,实验结果显示,其在常识问答和开放式书本问答数据集上均表现优于现有的最佳方法。
May, 2023
本文介绍了一种基于知识图谱的问答系统,采取了一种新型的深度学习架构和端到端变分学习算法,可以同时处理问题中的噪声和多跳推理,在最新的基准数据集中取得了最优表现。
Sep, 2017
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
本文介绍了 Visual Question Answering——Graph Neural Network 模型,用于解决视觉理解中的概念层次推理问题,与现有模型相比,该模型将图像级别信息和概念知识进行了统一,并在 VCR 任务中取得了优于 Trans-VL 模型的最佳结果。此外,该模型还提供了跨视觉和文本知识领域的可解释性。
May, 2022
Question Answering over Knowledge Graph (KGQA) aims to seek answer entities for the natural language question from a large-scale Knowledge Graph. To better perform reasoning on KG, recent work typically adopts a pre-trained language model (PLM) and a graph neural network (GNN) module, but these are not closely integrated. This paper proposes ReasoningLM, a more capable PLM that directly supports subgraph reasoning for KGQA, outperforming state-of-the-art models.
Dec, 2023