对 ChatGPT 在对话状态跟踪 (DST) 任务中的能力进行了初步评估,发现其表现出色。为了解决 ChatGPT 的局限性,提出了基于小型开源模型的 LLM 驱动的 DST 框架 LDST,通过领域 - 槽位指令调优方法,LDST 在零样本和少样本设置下相较于之前的 SOTA 方法取得了显著的性能提升。提供源代码以保证可复现性。
Oct, 2023
本文介绍了第 8 届对话系统技术挑战赛的 Schema-Guided 对话状态跟踪任务,其目标是开发适用于大型虚拟助手的对话状态跟踪模型,重点是跨域的数据高效联合建模和新 API 的零 - shot 推广。本任务提供了一个包含 16 个领域超过 16000 个对话的数据集,其中包括一个能够零 - shot 推广到新 API 的基线模型。本文介绍了任务定义、数据集和评估方法,并概述了提交系统的方法和结果,以突出现今最先进技术的总体趋势。
Feb, 2020
本文描述了我们在 DSTC11 中参与的具有极大成功的模型的工程努力,该模型由三个主要模块组成:(1) 自动语音识别误差校正,(2) 基于文本的对话系统用于估计插槽和值,(3) 后处理用于恢复估计的插槽值的错误。我们的实验证明了对于口语对话语料库,使用明确的自动语音识别误差校正模块、后处理和数据增强对于调整基于文本的对话状态跟踪器至关重要。
Aug, 2023
本文提出了一种新的多任务学习方法,旨在为面向任务的对话系统中的语言理解(LU)和对话状态跟踪(DST)进行学习。多任务训练使得编码用户话语的神经网络层用于 LU 和 DST,通过减少网络参数并提高性能。 本研究提出了 DST 框架,用于考虑有大量或无限可能值的插槽及以往对话中未见过的槽值,并探讨了在 LU 和 DST 输出上使用计划采样来弥合训练和推理之间的差距。
Nov, 2018
该论文提出了一种在预训练多语言模型之间进行跨语言传递学习的方法,通过中间微调预训练的多语言模型,使其适用于不同但相关的数据和 / 或任务,以提高对话系统的性能。
Sep, 2021
本文讨论了在任务导向的对话系统中如何识别用户意图和相应的插槽,并通过多种跨语言转移方法进行数据集训练比较
Oct, 2018
我们使用 ChatGPT ,一个通用语言模型,展示了它在零 - shot DST 上达到的最先进的表现,并证明了通用模型在专业系统替代方面的能力受到其属性的限制,但我们认为通用模型的语境学习能力很可能成为支持专门的动态对话状态跟踪器开发的有力工具。
Jun, 2023
通过我们的工具包 CheckDST,我们进行了标准化和全面的 DST 诊断,发现了不同类别的 DST 模型具有明显的优势和劣势,生成模型更适用于语言多样性,而基于跨度分类的模型对不可见实体更具鲁棒性,我们还发现了各个模型的失败模式,并通过预微调过程改善了生成模型的分布偏差问题。
Dec, 2021
利用 GPT-4 生成对话数据,通过在 LLaMA 2 上进行两阶段的微调,减少对话收集和注释成本,并表现出比仅使用真实数据训练的基准模型更好的性能,同时适应实际场景中的动态需求。
May, 2024
本研究旨在通过预训练源语言状态追踪器为教师并将其知识传递到目标语言的学生状态追踪器以实现跨语言支持。使用双语语料库或双语字典作为基础,设计不同的转移学习策略以实现任务导向的对话系统。在英语状态跟踪器为教师的情况下,将其知识传递到意大利语和德语跟踪器中,取得了很好的实验效果。
Aug, 2018