一种基于学习后推理模型的知识库问答通用化方法
利用大型语言模型构建生成 - 检索知识库问答 (ChatKBQA) 框架,在知识检索和语义解析两个研究组件方面面临三个核心挑战,即低效的知识检索、检索错误对语义解析的不利影响以及以往 KBQA 方法的复杂性。该框架通过首先使用已经微调的大型语言模型生成逻辑形式,然后通过无监督的检索方法检索并替换实体和关系,从而更直接地改善了生成和检索。实验结果表明,ChatKBQA 在标准 KBQA 数据集 WebQSP 和 ComplexWebQuestions (CWQ) 上取得了最新的最佳性能。这项工作还为将大型语言模型与知识图谱 (KG) 相结合提供了新的范例,以实现可解释性和知识需求的问答。
Oct, 2023
该研究提出了一种基于 LLMs 的 McL-KBQA 框架,通过基于 ICL 的多选项将 LLMs 的 Few-shot 能力纳入 KBQA 方法,从而提高了 QA 任务的有效性和泛化性能。在两个 KBQA 数据集上的实验结果表明,McL-KBQA 具有竞争性的性能和强大的泛化性能。研究者期望从 LLMs 的角度探索 QA 任务的新方法,并获得规范和正确的答案和强大的泛化性。
May, 2023
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
提出了一种基于 2 阶段架构的 KBQA 框架,该架构明确地将语义解析与知识库交互分离,从而促进数据集和知识图之间的迁移学习,证明了在具有不同基础知识库的数据集上进行预训练可以显著提高性能并降低样本复杂度。
Nov, 2021
FlexKBQA 是一种利用大型语言模型解决少样本知识库问答任务的方法,通过自动化算法从知识库中生成多样的程序,利用语言模型将其转化为自然语言问题。该方法还引入了执行引导自训练的策略来缓解合成数据和真实用户问题之间的分布差异,并利用大型语言模型的推理能力来增强整个框架。在 GrailQA、WebQSP 和 KQA Pro 上的实验证明,FlexKBQA 在少样本甚至零样本情景下,只需少量注释即可达到令人印象深刻的结果,超过了所有之前的基准,并且接近于监督模型的性能,相对于完全监督模型性能达到 93%。我们认为 FlexKBQA 在大型和轻量级模型的更好集成方面代表了重要进展。
Aug, 2023
基于大型语言模型 (LLM) 和 BERT 的知识库问答系统 (LB-KBQA) 利用生成式人工智能技术能够检测新出现的意图并获取新知识,在金融领域问题回答实验中展示出卓越的有效性。
Feb, 2024
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的 KG-to-Text 方法,我们提出了一种将 KG 知识转化为对 KGQA 最有信息量的文本化陈述的方法,并基于此方法提出了一种 KG-to-Text 增强的 LLMs 框架来解决 KGQA 任务。在几个 KGQA 基准测试上的实验证明了所提出的 KG-to-Text 增强 LLMs 方法在回答准确性和知识陈述的有用性方面优于先前的 KG 增强 LLMs 方法。
Sep, 2023
我们分析了基于知识的视觉问答,研究问题是:1)我们能通过显式有监督检索相关知识解决知识库 - 视觉问答问题吗?2)任务特定模型和预训练语言模型在视觉和外部知识的整合以及多跳推理方面的表现如何?3)预训练语言模型的隐式知识足够用于知识库 - 视觉问答吗?结果表明,将特定任务和预训练语言模型与显式的外部和视觉知识检索模型相结合可以取得良好效果。预训练语言模型在 1 跳推理方面更强,但在 2 跳推理方面不如我们精调的神经网络模型,尽管两种模型都可以获取两种信息的相关信息。此外,我们观察到预训练语言模型在与知识库相关的问题上优于神经网络模型,这证实了预训练语言模型中隐式知识的有效性,然而,它们并不能代替对外部知识的需求。
Apr, 2024
大型语言模型在理解和生成复杂查询方面表现出了卓越的能力,但它们在存储、回忆和推理大规模结构化知识方面的有效性仍有待研究,本研究发现虽然大型语言模型有望作为大规模知识库灵活地检索和回答问题,但需要增强它们的推理能力以充分发挥潜力。
Feb, 2024