知识库问答中更好的查询图选择
本研究主要关注于如何从自然语言问题中构建查询图谱,提出了一种基于语义结构的 BERT 模型进行分析和预测,通过过滤噪声查询图,提高了问题解答的准确性。实验结果表明该方法比现有技术有更好的效果。
Apr, 2022
提出了一种基于子图分区的图增强学习排序模型,该模型整合了子图匹配网络和增强双边多角度匹配模型,用于知识图谱问答中的答案选择。在多个基准数据集上的实验结果表明,该方法具有很好的效果。
Nov, 2021
该研究论文介绍了一种名为 “graph-to-segment” 的新方法,用于基于知识图谱的问题回答,专注于理解问题陈述,并通过采用基于规则和神经网络技术的语义解析,通过生成任务和图神经网络处理知识图谱的上下文,提供对问题进行语义解析和回答的高效准确性和卓越性能。
Dec, 2023
本文提出了一种基于 AQG(一种统一的图形文法)的端到端模型,由高级解码生成用于约束搜索空间的 AQG 和底级解码构造查询图,旨在优化查询图构建过程,提高在复杂 KGQA 基准测试中的表现。
Nov, 2021
本研究中,我们提出使用门控图神经网络来编码语义解析的图形结构,以解决学习复杂语义解析向量表示的问题。该方法在两个数据集上均优于不显式建模结构的基线模型,并通过误差分析成功处理复杂语义解析。
Aug, 2018
本文提出一种基于自注意力机制的空槽匹配模型,用于复杂问题回答的神经查询图排名方法的实证研究,实验结果表明与其他六种排名模型相比,我们的模型在 DBpedia 知识图谱上的两个 QA 数据集中表现更好,并且通过从规模较大的数据集进行迁移学习,可以有效弥补训练数据的不足,进一步提高了模型的表现。
Nov, 2018
本文介绍了使用自然语言处理技术的语义解析器,将用户的自然语言问题转化为有形式定义的查询语句,通过大规模知识图谱实现。作者提供了一个数据集,其中,用户问题采用 Sparql 语言解析,并对执行结果对系统回答进行注释。通过两种不同的语义解析方法,我们提出了挑战:如何处理大规模词汇,如何建模对话语境,如何处理多实体查询语句,并实现对新问题进行泛化。作者希望我们的数据集能够为开发会话式语义解析器提供有效的测试平台。本文的数据集和模型已经发布,详情请见链接。
Jan, 2023
本文提出了一种基于图同构的 QA 方法 ——TeBaQA,其通过学习 SPARQL 查询的基本图模式来回答问题,从而在减少训练数据量的同时实现了与最先进技术相同的性能,在 QALD 和 LC-QuAD v1 数据集上都具有极高的性能。
Mar, 2021
本研究提出一种基于图结构生成和关系抽取的语义解析模型,其中使用因果关系增强表填充器和高效的波束搜索算法解决了之前模型中出现的序列生成模糊和暴露偏见问题,并在大规模知识库上具有显著的优势。
Jul, 2022