灵活结构化的知识驱动问答
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
我们通过复杂问题回答作为任务,对比了不同的知识图谱注入方法,旨在探索最佳提供知识图谱给大型语言模型的提示方法,从而增强其对知识图谱的理解能力。与预期相反,我们的分析发现,大型语言模型能够有效处理混乱、噪音和线性化的知识图谱知识,并且表现优于使用设计良好的自然语言文本提示的方法。这一反直觉的发现为未来关于大型语言模型理解结构化知识的研究提供了重要见解。
Feb, 2024
本研究旨在探讨结构化数据如知识图谱和文本等对大语言模型(LLMs)内部化知识的差异,提出了一种将结构化知识注入 LLMs 的方法,并通过在不同知识图谱数据上的预训练和多个自然语言任务的性能比较,证明了该方法的有效性。
May, 2022
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的 KG-to-Text 方法,我们提出了一种将 KG 知识转化为对 KGQA 最有信息量的文本化陈述的方法,并基于此方法提出了一种 KG-to-Text 增强的 LLMs 框架来解决 KGQA 任务。在几个 KGQA 基准测试上的实验证明了所提出的 KG-to-Text 增强 LLMs 方法在回答准确性和知识陈述的有用性方面优于先前的 KG 增强 LLMs 方法。
Sep, 2023
本文介绍了一种基于知识图谱的问答系统,采取了一种新型的深度学习架构和端到端变分学习算法,可以同时处理问题中的噪声和多跳推理,在最新的基准数据集中取得了最优表现。
Sep, 2017
大型语言模型在生成能力方面表现出色,但当仅依赖其内部知识时,容易出现幻觉,尤其是在回答需要不太常见的信息的问题时。基于检索的大型语言模型已经成为将其与外部知识结合的潜在解决方案,然而,最近的方法主要强调从非结构化文本语料库进行检索,忽视了底层结构。此外,当前领域存在一个显著的差距,即缺乏对异构知识源(如知识库和文本)上的大型语言模型进行有效定位的实际基准数据集。为了填补这一空白,我们精心策划了一个综合数据集,提出了两个独特挑战:(1)需要从开放域结构化和非结构化的知识源中检索信息的两跳多源问题,正确回答问题需要从结构化知识源中检索信息;(2)符号化查询(例如用于 Wikidata 的 SPARQL)的生成是一个关键要求,增加了额外的挑战。我们的数据集通过预定义的推理链自动生成和人工注释相结合的方式创建,我们还引入了一种新颖的方法,利用多个检索工具,包括文本段落检索和符号化语言辅助检索。我们的模型在解决上述推理挑战方面优于以往的方法。
Oct, 2023
利用压缩的知识图作为输入,我们的方法在使用较少标记表示支持文档中与查询相关信息方面比现有方法利用高达 67% 的标记。我们的实验证明,在两个流行的基准数据集(HotpotQA 和 MuSiQue)上,我们的方法在多个指标(EM,F1,BERTScore 和人类评估)上持续改进。
Jun, 2024
本论文提出了一种新模型 GreaseLM,它将来自预训练语言模型和图神经网络的编码表示在多个层次的模态交互操作中融合,可以更可靠地回答需要考虑情境限制和结构化知识推理的问题。
Jan, 2022