一个面向对话状态追踪的序列转序列方法
本研究提出一种新的Goal-oriented dialogue systems框架,其中的dialogue state tracker可适用于multiple domains,且不需要特定领域的先验知识,预训练的词嵌入技术有助于提高性能。
Nov, 2018
本研究提出了BERT-DST,一种基于BERT的端到端的对话状态跟踪器,它可以从对话上下文中直接提取槽值,并采用所有槽的编码参数共享的方法,实现了可扩展的对话状态跟踪。实证评估表明,BERT-DST在可扩展的数据集Sim-M和Sim-R上优于之前的方法,在标准数据集DSTC2和WOZ 2.0上取得了具有竞争力的性能。
Jul, 2019
通过使用分层编解码结构直接生成信念状态序列的方法,我们提出了一种不需要预定义本体列表的对话状态跟踪方法,并在多域和单域对话状态跟踪数据集上进行了实验,取得了最先进的性能。
Sep, 2019
本文介绍了第8届对话系统技术挑战赛的Schema-Guided对话状态跟踪任务,其目标是开发适用于大型虚拟助手的对话状态跟踪模型,重点是跨域的数据高效联合建模和新API的零-shot推广。本任务提供了一个包含16个领域超过16000个对话的数据集,其中包括一个能够零-shot推广到新API的基线模型。本文介绍了任务定义、数据集和评估方法,并概述了提交系统的方法和结果,以突出现今最先进技术的总体趋势。
Feb, 2020
本文提出了一种基于内部和外部注意机制的上下文和架构融合网络来编码对话上下文和架构图,能够在MultiWOZ 2.0和MultiWOZ 2.1基准测试中获得最新的最佳性能的开放词汇DST。
Apr, 2020
本文介绍了一种基于BERT的快速和强健的模型FastSGT用于在目标导向对话系统中跟踪对话状态,在实验中,FastSGT在保持计算和内存消耗效率的同时,显着提高了准确性,并通过数据增强显示了提高准确性的有效性。
Aug, 2020
本文提出了一种基于结构化状态表征的、称为 Coarse-to-fine Dialogue State Tracking (CREDIT) 的方法,它将对话状态跟踪作为序列生成问题,并在 MultiWOZ 数据集上获得了令人满意的实验结果。
Sep, 2020
文章提出了一种基于多任务BERT模型的对话状态跟踪器,可以同时解决意图预测、请求插槽预测和插槽填充等三个DST任务,并采用高效和简洁的对话历史和服务架构编码来提高性能。通过对SGD数据集进行的评估,结果表明该方法在计算效率明显提高的同时,大幅度超越了基线SGP-DST,并且性能表现接近于最先进的模型。
Jul, 2022
该论文提出了一种名为 SETDST 的基于神经网络的对话状态跟踪方法,通过对数据集的 schema 进行编码实现对新领域的有效迁移学习,进而提高多领域设置下的对话系统性能。
Oct, 2022