本文介绍了把目标导向式对话任务(TOD)系统和非目标导向闲聊式对话系统(ODD)结合起来的难题,并基于流行的TOD数据集MultiWOZ构建一个包含两种对话模式交替的新数据集FusedChat,提供一种更具挑战性的基准测试,以测试对话模型在处理交叉模式上的表现。该数据集具有丰富的依赖模式,包括共示和省略,并提供了分类和融合等基线模型。
Sep, 2021
该研究提出了通过PPTOD模型和新的对话多任务预训练策略来解决任务导向对话系统中存在的级联生成问题,取得了针对几个基准TOD任务的最新成果。
本研究比较了使用最新的预训练模型,如 BART 和 T5 对任务导向对话系统的端到端训练的效果和强度,实验结果表明在语言模型微调后,模型生成的响应更流畅、更准确,BART 和 T5 在 BLEU 和 F1 分数方面胜过 GPT-based models,达到了任务导向对话系统的最先进水平。
Jan, 2022
介绍InstructDial,一个对话指令优化框架,用于提高NLP模型在对话相关任务中的零Shot和few-shot性能,其中包括48个具有多样性的对话任务,使用元任务确保模型遵循指令。
May, 2022
本研究旨在研究大型语言模型在多轮任务和与外部数据库交互方面的能力,发现在显式信仰状态跟踪方面,它们表现不如专门的任务特定模型,但是如果给出正确的插槽值,它们表现出将对话引导到成功结局的能力,并且在有真实信仰状态分布或域内示例的情况下,这种能力得到了改进。
Apr, 2023
ProToD是一种预测未来对话动作并结合目标导向奖励信号来增强对话系统的方法,通过基于目标导向的对话模拟评估方法,可以在仅使用10%的数据的情况下实现比以前的全监督模型更好的性能,同时提高用户满意度和效率。
Sep, 2023
为了推动自动化任务导向对话系统的评估,本研究提出了一种基于预训练语言模型的新型用户模拟器,并通过上下文学习来生成具有鲁棒性和语言多样性的输出,以模拟人类对话行为。通过与现有对话系统交互,并收集人机交互数据集,验证了该用户模拟器在单一意图对话目标方面的表现与人类相似。
本文提出了一种称为DivTOD的新型对话预训练模型,它与LLMs合作,学习多样的任务导向对话表示,并在各种下游对话任务上优于强基线模型,同时学习任务导向对话的内在多样性。
Mar, 2024
该研究探讨了SynTOD,一种用于开发端到端任务导向对话系统的新型合成数据生成方法,该方法能够处理意图分类、槽填充、对话问答和检索增益响应生成等复杂任务,而无需依赖众包或现实世界的数据。实验结果显示,使用受图引导的响应模拟能够显著提高意图分类、槽填充和响应相关性,相较于单一提示的模拟对话。该研究还调查了不同基础和指导调整的大型语言模型在端到端任务导向对话系统上的有效性,并探索了它们在评估回应和与人类判断之间的相关性。这些发现为领域特定的任务导向对话系统的快速开发和评估铺平了道路。研究团队还发布了用于研究目的的数据集、模型和代码。
Apr, 2024
利用SyncTOD改进了与任务有关的对话系统,通过在有限的数据情况下训练具有辅助模型和启示的大型语言模型,实现了在低数据设置中与LLM基准模型和SoTA模型相比的卓越性能。
May, 2024