使用动态上下文图进行对话语义解析
本文介绍了使用自然语言处理技术的语义解析器,将用户的自然语言问题转化为有形式定义的查询语句,通过大规模知识图谱实现。作者提供了一个数据集,其中,用户问题采用 Sparql 语言解析,并对执行结果对系统回答进行注释。通过两种不同的语义解析方法,我们提出了挑战:如何处理大规模词汇,如何建模对话语境,如何处理多实体查询语句,并实现对新问题进行泛化。作者希望我们的数据集能够为开发会话式语义解析器提供有效的测试平台。本文的数据集和模型已经发布,详情请见链接。
Jan, 2023
本文提出了一个动态图形框架,能够有效地建模上下文话语、令牌、数据库模式及其交互,并通过强大的重新排名模型进一步增强。该模型在 SParC 和 CoSQL 数据集上实现了新的最优表现。
Jan, 2021
本文提出了一种历史语义图增强问答模型(HSGE),能够有效地建模会话历史中的长程语义依赖关系,同时保持低计算成本。实验结果表明,它在所有问题类型上平均优于现有基线。
Jun, 2023
评估了没有在此任务上进行明确预训练的大型语言模型的性能,并通过一系列实验在广泛的基准数据集上比较了具有不同提示技术和不同大小的模型,并确定了生成输出中的常见问题类型。结果表明,大型语言模型能够从对话中生成图查询,并通过少样本提示和微调技术实现显著提升,特别是对于展现较低零样本性能的较小模型。
Jan, 2024
该研究论文介绍了一种名为 “graph-to-segment” 的新方法,用于基于知识图谱的问题回答,专注于理解问题陈述,并通过采用基于规则和神经网络技术的语义解析,通过生成任务和图神经网络处理知识图谱的上下文,提供对问题进行语义解析和回答的高效准确性和卓越性能。
Dec, 2023
本研究中,我们提出使用门控图神经网络来编码语义解析的图形结构,以解决学习复杂语义解析向量表示的问题。该方法在两个数据集上均优于不显式建模结构的基线模型,并通过误差分析成功处理复杂语义解析。
Aug, 2018
使用神经语义分析方法解决大型知识图库上的弱监督会话问答问题,引入了一种新的逻辑形式语法并使用基于 transformer 的模型将 JSON 输入转换为嵌入列表,最后在两个基于 Wikidata 的数据集上验证了该方法。
Sep, 2021
本文提出了一个新的任务,旨在研究如何在神经会话模型中应用动态知识图谱,并提供了 DyKgChat 话语语料库来帮助评估动态知识图谱对响应生成的影响。为了支持动态知识图谱,我们提出了一个选取两个网络的初步模型:序列到序列模型 (Seq2Seq) 和多跳推理模型。我们引入了几种评估指标进行评测,并实验证明我们的方法优于以往的知识驱动对话模型。该文所提出的语料库和模型可激发未来的研究方向。
Oct, 2019
本文提出一种适用于任务导向型对话系统的模型,利用知识库和对话的依存关系图结构信息解决了如何有效地将外部知识库整合到学习框架中以及如何准确捕捉对话历史语义的挑战。此外,该模型采用多跳推理能力以及循环单元架构进行表示学习。实验结果表明,该模型在两个不同的任务导向型对话数据集上均优于现有模型。
Oct, 2020