文章提出了一种基于多任务 BERT 模型的对话状态跟踪器,可以同时解决意图预测、请求插槽预测和插槽填充等三个 DST 任务,并采用高效和简洁的对话历史和服务架构编码来提高性能。通过对 SGD 数据集进行的评估,结果表明该方法在计算效率明显提高的同时,大幅度超越了基线 SGP-DST,并且性能表现接近于最先进的模型。
Jul, 2022
提出了一种新颖的基于预训练语言模型的任务驱动对话状态追踪方法,利用基于模式的提示和模式描述提高了性能,适用于多个基准测试(MultiWOZ 2.2、MultiWOZ 2.1 和 M2M),实现了最先进的性能。
Sep, 2021
本文介绍了一种基于 BERT 的快速和强健的模型 FastSGT 用于在目标导向对话系统中跟踪对话状态,在实验中,FastSGT 在保持计算和内存消耗效率的同时,显着提高了准确性,并通过数据增强显示了提高准确性的有效性。
Aug, 2020
使用树形排序的生成模型,优化模型的语法多样性和语义忠实度,使其适用更广泛的任务。将合成的数据添加到基线模型的训练集中,可以显著提高其平均联合目标准确性和模式灵敏度。
Mar, 2023
本文提出了一种基于 BERT 的零 - shot 自然语言理解模型,用于实现多领域会话状态跟踪,实验结果显示该模型较基线系统具有显著改进。
Jun, 2020
本文提出了一种基于预训练语言模型 BERT 微调的无监督对话状态跟踪系统 (SGP-DST),它包括意图预测、关键词填充、槽传递预测和用户状态总结 4 个模块,是目前在第八届对话系统技术挑战赛中排名第三的解决方案。
Feb, 2020
我们提出了一种基于图的框架,通过将对话模式编码为图神经网络来嵌入预训练语言模型,从而在特定领域上对模型进行了更好地自适应,实验证明该方法在多领域对话状态跟踪方面优于其他方法。
Nov, 2023
通过扩展 Schema-Guided Dialogue 数据集,我们研究了对话系统在语义相似但风格不同的服务 API 语言样本中的鲁棒性,发现两个最优状态跟踪模型在处理此类数据时存在较大瓶颈,同时提出了一种改进 Schema 鲁棒性的简单数据增强方法。
Oct, 2021
本文提出了一种基于内部和外部注意机制的上下文和架构融合网络来编码对话上下文和架构图,能够在 MultiWOZ 2.0 和 MultiWOZ 2.1 基准测试中获得最新的最佳性能的开放词汇 DST。
Apr, 2020
本文介绍了 Schema-Guided Dialogue (SGD) 数据集,包括 16 个领域的 16,000 个多领域对话。SGD 数据集提供了一个具有挑战性的测试平台,可以用于测试任务包括语言理解,位置填充,对话状态跟踪和响应生成。文章也提出了一个基于模式的任务导向对话的范式,尤其是在输入中提供了一组动态的意图和插槽自然的语言描述,提高了对大量服务形态的支持和新服务的快速集成。
Sep, 2019