UniOQA:基于大型语言模型的知识图谱问答统一框架
UniKGQA 是一种新的多跳知识图谱问答方法,通过统一检索和推理模型架构和参数学习,基于预训练语言模型的语义匹配模块和匹配信息传播模块进行问题与关系的语义匹配,采用共同的预训练任务和检索以及推理定向的微调策略。
Dec, 2022
提出了一种名为 UnifiedTQA 的可信赖的问答框架,它能同时支持多种类型的结构化数据,并在评估中优于现有方法,具有潜力用于更广泛的问答任务。
Jun, 2024
基于知识库的问答(KBQA)旨在根据知识库来回答事实性问题。本研究针对无人系统中的知识图推理问答的 CCKS2023 竞赛,在 ChatGPT 和 GPT-3 等大型语言模型在许多问答任务中取得的最近成功的启发下,提出了基于 ChatGPT 的 Cypher 查询语言(CQL)生成框架,从给定的自然语言问题中生成最适合的 CQL 查询。我们的生成框架包括六个部分:根据给定的自然语言问题预测 CQL 的语法相关信息的辅助模型,从给定的自然语言问题中提取专有名词的专有名词匹配器,检索输入样例的相似示例的演示示例选择器,设计 ChatGPT 的输入模板的提示构造器,生成 CQL 的 ChatGPT 模型,以及从多样化的输出中获取最终答案的集成模型。凭借我们的基于 ChatGPT 的 CQL 生成框架,我们在 CCKS 2023 无人系统知识图推理问答竞赛中获得第二名,F1-score 为 0.92676。
Nov, 2023
本文提出了 KGQAn,一个通用的 QA 系统,它不需要为每个目标 KG 进行定制,而是采用一种新颖的形式化方法将问题理解为一个文本生成问题,并通过神经序列到序列模型将问题转换为中间抽象表示。我们还开发了一个即时链接器,在查询时间使用 RDF 存储的公共可访问 API 和现有索引将抽象表示映射到特定 KG 的 SPARQL 查询,而无需任何预处理。我们在几个真实的 KG 上进行的实验表明,KGQAn 易于部署,对于任意的 KG 表现良好,优于现有的 QA 系统。
Mar, 2023
该研究致力于利用结构化、非结构化和半结构化知识来源(如文本、表格、列表和知识库)进行开放域问题回答,并提出了统一的方法,将它们转化为文本并采用检索 - 阅读器模型,从而大大提高了在知识库问题回答任务上的表现,并将异构知识来源融合成一个简单且有效的统一知识模型,并在两个流行的问答基准测试中(自然问题和网络问题)继续提高最新的图形方法等级,分别为 3.5 和 2.6 点。
Dec, 2020
UNIQORN 是一个基于图形方法的系统,它能够在混合的 RDF 数据和文本语料库以及单独的信息源中无缝地进行操作,该方法通过使用细化的 BERT 模型从 RDF 数据和文本语料库中检索与问题相关的证据来实时构建上下文图,然后使用基于图算法的 Group Steiner Trees 来确定上下文图中最佳答案候选项,实验结果表明其显著优于现有的异构数据源 QA 方法。
Aug, 2021
使用知识图谱和语义表示的大型语言模型(LLMs)相较于直接对 SQL 数据库(即 Text-to-SQL)回答问题的系统,可以提高准确性,并且研究表明,通过使用知识图谱,准确性提升了从 16% 到 54%。本研究基于此,提出了一个方法来进一步提高准确性和降低错误率,通过本体检查 (LLM-generated SPARQL 查询与本体语义的匹配) 和 LLM 修复错误的 SPARQL 查询两个步骤,成功将准确度提高到 72%,错误率为 20%。研究结果进一步证明,投资于知识图谱,尤其是本体,可以为 LLM 驱动的问答系统提供更高的准确性。
May, 2024
提出一种新颖的开放领域问答框架,使用中介模块对异构知识源上的单跳 / 多跳问题进行回答。在预训练语言模型的基础上,通过将检索到的证据与其相关的全局上下文链接到图中,并将它们组织成候选证据链,实现了竞争性的性能。在两个 ODQA 数据集 OTT-QA 和 NQ 上,我们的模型显著优于之前最先进的方法,在 OTT-QA 上具有 47.3 的精确匹配分数(相对增益 45%)。
Oct, 2022
开放领域问答(ODQA)作为信息系统中的关键研究领域已经崛起。现有方法采用两种主要范式来收集证据:(1)“先检索然后阅读” 范式从外部语料库中检索相关文档;(2)“先生成然后阅读” 范式使用大型语言模型(LLMs)生成相关文档。然而,两者都无法完全满足证据的多方面需求。因此,本文提出了 LLMQA,一种通用框架,将 ODQA 过程分为三个基本步骤:查询扩展、文档选择和答案生成,结合了基于检索和基于生成的证据的优势。由于 LLMs 展示了在各种任务中表现出的出色能力,我们在框架中指导 LLMs 担任多个角色,作为生成器、重新排序器和评估器,集成它们在 ODQA 过程中的协作。此外,我们引入了一种新颖的提示优化算法,以改进角色扮演提示,引导 LLMs 生成更高质量的证据和答案。在广泛使用的基准测试(NQ、WebQ 和 TriviaQA)上进行的大量实验结果表明,LLMQA 在答案准确性和证据质量方面达到了最佳表现,展示了其推进 ODQA 研究和应用的潜力。
Mar, 2024
本文提出了一种基于大型语言模型的自我点拨框架 (Self-Prompting framework),使得在开放域下的问答任务 (Open-Domain Question Answering) 可以在不需要训练数据和外部知识库的情况下实现,采用该方法在三个广泛使用的 ODQA 数据集上,实验结果优于之前的最先进方法,在 EM 指标上平均提高了 8.8 个百分点,并且能够实现与多种检索增强的微调模型相比较的性能。
Dec, 2022