ArcaneQA: 知识库问答的动态程序归纳和上下文编码
本论文总结了解决复杂知识库问答任务所面临的挑战及其解决方案,介绍了语义解析方法和信息检索方法两种主流方法,并从两种方法的角度全面地回顾了高级方法及其解决方案,最后总结并讨论了未来研究的一些有前途的方向。
May, 2021
本文提出了一种基于程序传递的方法来帮助没有程序注释的低资源知识库中的程序感应,对于这一方法,我们设计了一个新的两阶段解析框架,具有高效的本体采导向修剪策略,实验表明,该方法在复杂网络问题和WebQuestionSP上优于SOTA方法,展示了程序传递和我们框架的有效性。
Oct, 2021
提出了一种基于2阶段架构的KBQA框架,该架构明确地将语义解析与知识库交互分离,从而促进数据集和知识图之间的迁移学习,证明了在具有不同基础知识库的数据集上进行预训练可以显著提高性能并降低样本复杂度。
Nov, 2021
本综述探讨了基于知识库的问题回答(KBQA)的两个独特挑战,并综述了现有 KBQA 方法的解决方法,其中建议通过深度学习领域的语义分析研究成果,解决当前 KBQA 研究遇到的瓶颈,特别是在预训练语言模型的时代。
Sep, 2022
通过在大型语言模型中使用代码风格的上下文学习方法,从而解决了知识基础问题回答中逻辑格式错误的问题,并在少样本设置下实现了WebQSP、GrailQA和GraphQ等主流数据集上的最新技术水平。
Sep, 2023
利用大型语言模型构建生成-检索知识库问答(ChatKBQA)框架,在知识检索和语义解析两个研究组件方面面临三个核心挑战,即低效的知识检索、检索错误对语义解析的不利影响以及以往KBQA方法的复杂性。该框架通过首先使用已经微调的大型语言模型生成逻辑形式,然后通过无监督的检索方法检索并替换实体和关系,从而更直接地改善了生成和检索。实验结果表明,ChatKBQA在标准KBQA数据集WebQSP和ComplexWebQuestions(CWQ)上取得了最新的最佳性能。这项工作还为将大型语言模型与知识图谱(KG)相结合提供了新的范例,以实现可解释性和知识需求的问答。
Oct, 2023
通过In-Context Schema Understanding(ICSU)方法,利用大型语言模型(LLMs)作为知识库问题回答(KBQA)任务的语义解析器,借助上下文学习机制生成SPARQL查询,并通过四种检索策略来提高语言模型的表现。
Oct, 2023
通过与知识库进行直接交互生成逻辑形式,我们引入了Interactive-KBQA框架来解决知识库问答领域的问题,该框架包括三种通用API用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
本研究解决了现有语义解析器在知识库问答中未能有效利用知识库大信息的问题。论文提出了一种增强语法的语义解析方法,利用候选表达式来生成有效的知识库元素。实验结果表明,该方法在两个基准测试上达到了最先进的准确率,显著提高了解析器的性能。
Oct, 2024