信任 UQA:统一结构化数据问答的可信框架
该研究致力于利用结构化、非结构化和半结构化知识来源(如文本、表格、列表和知识库)进行开放域问题回答,并提出了统一的方法,将它们转化为文本并采用检索 - 阅读器模型,从而大大提高了在知识库问题回答任务上的表现,并将异构知识来源融合成一个简单且有效的统一知识模型,并在两个流行的问答基准测试中(自然问题和网络问题)继续提高最新的图形方法等级,分别为 3.5 和 2.6 点。
Dec, 2020
UniOQA 是一个统一框架,通过整合两种互补的并行工作流程,利用大语言模型精确地回答问题,并采用直接回答预测过程作为一种成本效益的补充,通过改进问题表示能力和优化知识图谱,显著提升了 SpCQL 逻辑准确性达到 21.2% 和执行准确性达到 54.9%。
Jun, 2024
本文提出了 KGQAn,一个通用的 QA 系统,它不需要为每个目标 KG 进行定制,而是采用一种新颖的形式化方法将问题理解为一个文本生成问题,并通过神经序列到序列模型将问题转换为中间抽象表示。我们还开发了一个即时链接器,在查询时间使用 RDF 存储的公共可访问 API 和现有索引将抽象表示映射到特定 KG 的 SPARQL 查询,而无需任何预处理。我们在几个真实的 KG 上进行的实验表明,KGQAn 易于部署,对于任意的 KG 表现良好,优于现有的 QA 系统。
Mar, 2023
该论文介绍了一种基于最新的语言建模技术构建的单一预训练问答模型 UnifiedQA,该模型在 17 个问题回答数据集中表现出色,甚至在面对 12 个观察过的格式数据集时也表现出了强大的泛化能力,并且该模型通过简单的微调就可以成为构建 QA 系统的强有力起点。
May, 2020
提出一种新颖的生成式时间知识图问答框架(GenTKGQA),通过两个阶段引导 LLMs 回答时间性问题:子图检索和答案生成。在第一个阶段,利用 LLM 的内在知识来挖掘问题中的时间约束和结构链接,从而缩小子图搜索空间。在第二个阶段,设计虚拟知识指示器将子图的图神经网络信号与 LLM 的文本表示非浅层次地融合,帮助开源 LLM 深入理解检索到的事实中的时间顺序和结构依赖关系。实验结果表明,该模型优于最先进的基准方法,甚至对于简单问题类型的指标达到 100%。
Feb, 2024
本文提出了一种基于数据和文本的统一问答框架 UDT-QA,并使用数据到文本方法将 Wiki 百科中的表格和 Wikidata 中的图表达为口语化信息,以扩展知识索引。实验证明,该方法取得了自然问答 (Single-model state-of-the-art) 的最佳成果,并表明对于调整和热插拔的两种情况,口语化知识的优先考虑可以优化答案推理。
Oct, 2021
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的 KG-to-Text 方法,我们提出了一种将 KG 知识转化为对 KGQA 最有信息量的文本化陈述的方法,并基于此方法提出了一种 KG-to-Text 增强的 LLMs 框架来解决 KGQA 任务。在几个 KGQA 基准测试上的实验证明了所提出的 KG-to-Text 增强 LLMs 方法在回答准确性和知识陈述的有用性方面优于先前的 KG 增强 LLMs 方法。
Sep, 2023
本研究主要关注于如何从自然语言问题中构建查询图谱,提出了一种基于语义结构的 BERT 模型进行分析和预测,通过过滤噪声查询图,提高了问题解答的准确性。实验结果表明该方法比现有技术有更好的效果。
Apr, 2022
使用神经语义分析方法解决大型知识图库上的弱监督会话问答问题,引入了一种新的逻辑形式语法并使用基于 transformer 的模型将 JSON 输入转换为嵌入列表,最后在两个基于 Wikidata 的数据集上验证了该方法。
Sep, 2021