为电子邮件对话调整任务导向的对话模型
该研究提出了一种基于 Task-Optimized Adapters 和强化学习的 End-to-end TOD 系统,能够独立学习每个任务,并在 MultiWOZ 基准测试上表现出优越的性能,特别是在 2.2 数据集上的 DST 任务达到了最先进的水平。
May, 2023
本文通过整合多个人机对话数据集,结合用户和系统记号改良预训练模型,提出了对话任务 BERT(TOD-BERT)模型,并通过四个对话应用领域的实验验证,表明 TOD-BERT 在意图识别、对话状态跟踪、对话行为预测、响应选择等方面超过了强对话模型 BERT,并且具有更强的少量数据学习能力。
Apr, 2020
使用大型语言模型(LLMs)的上下文学习能力与业务逻辑的确定执行相结合,描述了一种构建面向任务的对话系统的系统。与主要用于行业的基于意图的 NLU 方法相比较,我们的实验表明,使用我们的系统开发聊天机器人所需的工作量明显较少,这些聊天机器人可以成功地进行复杂对话,并且我们的系统对于大规模任务导向的对话系统具有可扩展的有益特性。我们提供了我们的实现用于使用和进一步研究。
Feb, 2024
ProToD 是一种预测未来对话动作并结合目标导向奖励信号来增强对话系统的方法,通过基于目标导向的对话模拟评估方法,可以在仅使用 10% 的数据的情况下实现比以前的全监督模型更好的性能,同时提高用户满意度和效率。
Sep, 2023
本研究比较了使用最新的预训练模型,如 BART 和 T5 对任务导向对话系统的端到端训练的效果和强度,实验结果表明在语言模型微调后,模型生成的响应更流畅、更准确,BART 和 T5 在 BLEU 和 F1 分数方面胜过 GPT-based models,达到了任务导向对话系统的最先进水平。
Jan, 2022
我们的研究表明,融合用户情感检测和面向任务对话模型能够相互受益,并且是一种值得考虑的替代方法。我们的方法通过扩展用户情感检测到 SimpleToD,一个端到端的面向任务对话系统,来实现无缝融合,并基于单一的语言模型来做到此事。通过在 EmoWOZ 基准上使用 GPT-2 和 Llama-2 评估我们的方法,结果显示用户情感检测和任务结果的整体性能有所提高。我们的研究还表明,用户情感可以为系统响应提供有用的上下文条件,可以通过利用这些情感进一步提高响应的共情性。
Jan, 2024
本文提出了一种基于 FutureTOD 模型的对话预训练方法,该方法可通过自我训练并利用未来奖励来使模型学习到当下上下文信息和预测未来信息,从而提高对话表示的概括、鲁棒和学习判别性能力,并在不同的下游对话任务中获得了良好的表现。
Jun, 2023
本文提出了一种新的任务定向对话数据增强方法 TOD-DA,它包括对话丰富和口语会话模拟器,可以增加大规模高质量带注释口语会话,以提高口语任务定向对话建模的鲁棒性。在 DSTC10 Track2 的两项任务中,我们的方法均排名第一,证明了 TOD-DA 的优越性和有效性。
Dec, 2021
本文介绍了把目标导向式对话任务(TOD)系统和非目标导向闲聊式对话系统(ODD)结合起来的难题,并基于流行的 TOD 数据集 MultiWOZ 构建一个包含两种对话模式交替的新数据集 FusedChat,提供一种更具挑战性的基准测试,以测试对话模型在处理交叉模式上的表现。该数据集具有丰富的依赖模式,包括共示和省略,并提供了分类和融合等基线模型。
Sep, 2021
在这项工作中,我们研究了如何将任务定向对话和有知识的聊天有机地整合到单个模型中,通过创建一个新的数据集 KETOD 来自然地丰富基于相关实体知识的任务定向对话。我们还提出了两个新模型,SimpleToDPlus 和 Combiner,在自动和人工评估的实验结果中表现出显著的优越性能。
May, 2022