FusionMind -- 提升问题与回答的外部上下文融合
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
本文提出一种通过利用外部实体描述来为知识理解提供上下文信息的方法,将其作为预训练语言模型的附加输入,以解决知识图谱融合到语言建模中的问题,并获得了常识 QA 数据集中最先进的结果和 OpenBookQA 中非生成模型中最好的结果。
Dec, 2020
通过引入图驱动的上下文检索和基于知识图谱的增强来提高大型语言模型的能力,特别是在特定领域的社区问答平台中,提供上下文丰富的数据检索与大型语言模型的配对,为 AI 系统中的知识获取和生成带来了一种新的方法。
Jan, 2024
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的 KG-to-Text 方法,我们提出了一种将 KG 知识转化为对 KGQA 最有信息量的文本化陈述的方法,并基于此方法提出了一种 KG-to-Text 增强的 LLMs 框架来解决 KGQA 任务。在几个 KGQA 基准测试上的实验证明了所提出的 KG-to-Text 增强 LLMs 方法在回答准确性和知识陈述的有用性方面优于先前的 KG 增强 LLMs 方法。
Sep, 2023
本论文提出了一种新模型 GreaseLM,它将来自预训练语言模型和图神经网络的编码表示在多个层次的模态交互操作中融合,可以更可靠地回答需要考虑情境限制和结构化知识推理的问题。
Jan, 2022
使用协作增强框架 CogMG,结合知识图谱解决了大型语言模型在问答场景中的不完整知识覆盖和知识更新不匹配的问题,并通过监督微调的 LLM 在一个代理框架中展示了在减少幻觉和提高答案的事实准确性方面取得的显著改进。
Jun, 2024
本文提出了一种新的神经网络模型 KEAG,该模型利用外部知识解决 QA 问题,能够比现有的知识感知 QA 模型生成更高质量的答案,并证明其在利用知识方面的有效性。
Sep, 2019
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
在问答领域中,将大型语言模型与外部数据库结合已经取得了巨大的成功。然而,这些方法在提供复杂问答任务所需的高级推理方面常常效果不佳。为了解决这些问题,我们改进了一种称为 “知识图谱提示” 的新方法,该方法结合了知识图谱和基于大型语言模型的代理以提高推理和搜索准确性。然而,原始的知识图谱提示框架需要在大型数据集上进行昂贵的微调,并且仍然存在着大型语言模型幻觉的问题。因此,我们提出了一种注入推理能力的大型语言模型代理来增强该框架。这种代理模仿人类的好奇心来提问后续问题,以更高效地导航搜索。这种简单的改进显著提升了大型语言模型在问答任务中的性能,而无需承担初始 “知识图谱提示” 框架的高成本和延迟。我们的最终目标是进一步发展这种方法,在问答领域提供更准确、更快速、更具成本效益的解决方案。
Apr, 2024