可转移对话状态跟踪的模式编码
本文提出了一种基于内部和外部注意机制的上下文和架构融合网络来编码对话上下文和架构图,能够在 MultiWOZ 2.0 和 MultiWOZ 2.1 基准测试中获得最新的最佳性能的开放词汇 DST。
Apr, 2020
文章提出了一种基于多任务 BERT 模型的对话状态跟踪器,可以同时解决意图预测、请求插槽预测和插槽填充等三个 DST 任务,并采用高效和简洁的对话历史和服务架构编码来提高性能。通过对 SGD 数据集进行的评估,结果表明该方法在计算效率明显提高的同时,大幅度超越了基线 SGP-DST,并且性能表现接近于最先进的模型。
Jul, 2022
本文介绍了第 8 届对话系统技术挑战赛的 Schema-Guided 对话状态跟踪任务,其目标是开发适用于大型虚拟助手的对话状态跟踪模型,重点是跨域的数据高效联合建模和新 API 的零 - shot 推广。本任务提供了一个包含 16 个领域超过 16000 个对话的数据集,其中包括一个能够零 - shot 推广到新 API 的基线模型。本文介绍了任务定义、数据集和评估方法,并概述了提交系统的方法和结果,以突出现今最先进技术的总体趋势。
Feb, 2020
本文提出了一种基于预训练语言模型 BERT 微调的无监督对话状态跟踪系统 (SGP-DST),它包括意图预测、关键词填充、槽传递预测和用户状态总结 4 个模块,是目前在第八届对话系统技术挑战赛中排名第三的解决方案。
Feb, 2020
该研究论文提出了一种新的对话状态追踪方法,使用 Seq2Seq-DU,该方法通过两个基于 BERT 的编码器来编码对话中的话语和模式的描述,可以有效地处理类别和非类别槽,并能够联合建模意图、槽和槽值,其效果较现有方法更为优越。
Nov, 2020
本文介绍了一种基于深度学习的可伸缩的多领域对话状态跟踪方法,通过引入一个新的状态跟踪框架,该框架独立于具体的槽值集合,并将对话状态表示为候选值集合的分布,此方法能够快速适应新领域,提高跨领域和可扩展性。
Dec, 2017
本文介绍了一种基于 BERT 的快速和强健的模型 FastSGT 用于在目标导向对话系统中跟踪对话状态,在实验中,FastSGT 在保持计算和内存消耗效率的同时,显着提高了准确性,并通过数据增强显示了提高准确性的有效性。
Aug, 2020
本研究提出了 BERT-DST,一种基于 BERT 的端到端的对话状态跟踪器,它可以从对话上下文中直接提取槽值,并采用所有槽的编码参数共享的方法,实现了可扩展的对话状态跟踪。实证评估表明,BERT-DST 在可扩展的数据集 Sim-M 和 Sim-R 上优于之前的方法,在标准数据集 DSTC2 和 WOZ 2.0 上取得了具有竞争力的性能。
Jul, 2019
使用树形排序的生成模型,优化模型的语法多样性和语义忠实度,使其适用更广泛的任务。将合成的数据添加到基线模型的训练集中,可以显著提高其平均联合目标准确性和模式灵敏度。
Mar, 2023
我们提出了一种基于图的框架,通过将对话模式编码为图神经网络来嵌入预训练语言模型,从而在特定领域上对模型进行了更好地自适应,实验证明该方法在多领域对话状态跟踪方面优于其他方法。
Nov, 2023