增强检索辅助端到端面向任务系统在已见和未见对话场景中的性能
提出一种基于检索的方法,以加强 TOD 系统中的知识选择,并结合半监督学习进行潜变量模型,该模型可以与知识检索器一起利用有标签和无标签的对话数据。实验证明,该方法在有标签和半监督设置下均优于传统的数据库查询方法。
May, 2023
该研究提出了一种基于 Task-Optimized Adapters 和强化学习的 End-to-end TOD 系统,能够独立学习每个任务,并在 MultiWOZ 基准测试上表现出优越的性能,特别是在 2.2 数据集上的 DST 任务达到了最先进的水平。
May, 2023
本文介绍了一种新的基于查询驱动的任务对话系统,即 Q-TOD,该系统可将对话上下文的关键信息提取为查询,进而用于检索相关的知识记录以形成响应生成,它能够显著缓解领域适应性和知识库可扩展性的问题,实验结果表明,Q-TOD 优于现有系统并在公开数据集上取得了最新的最佳表现。
Oct, 2022
本文提出了一种新的任务定向对话数据增强方法 TOD-DA,它包括对话丰富和口语会话模拟器,可以增加大规模高质量带注释口语会话,以提高口语任务定向对话建模的鲁棒性。在 DSTC10 Track2 的两项任务中,我们的方法均排名第一,证明了 TOD-DA 的优越性和有效性。
Dec, 2021
该研究提出了通过 PPTOD 模型和新的对话多任务预训练策略来解决任务导向对话系统中存在的级联生成问题,取得了针对几个基准 TOD 任务的最新成果。
Sep, 2021
本文介绍了我们的 Track 2 模型,利用大规模真实世界的 MobileCS 中国 TOD 数据集,使用半监督学习和强化学习构建知识引导的对话模型,实现了任务导向对话系统的高效预测和人机交互。我们的系统在自动评估和人工交互中表现都极佳,尤其是 BLEU (+7.64) 和 Success (+13.6%) 方面比第二名更优秀。
Oct, 2022
本研究比较了使用最新的预训练模型,如 BART 和 T5 对任务导向对话系统的端到端训练的效果和强度,实验结果表明在语言模型微调后,模型生成的响应更流畅、更准确,BART 和 T5 在 BLEU 和 F1 分数方面胜过 GPT-based models,达到了任务导向对话系统的最先进水平。
Jan, 2022
本文通过整合多个人机对话数据集,结合用户和系统记号改良预训练模型,提出了对话任务 BERT(TOD-BERT)模型,并通过四个对话应用领域的实验验证,表明 TOD-BERT 在意图识别、对话状态跟踪、对话行为预测、响应选择等方面超过了强对话模型 BERT,并且具有更强的少量数据学习能力。
Apr, 2020
ProToD 是一种预测未来对话动作并结合目标导向奖励信号来增强对话系统的方法,通过基于目标导向的对话模拟评估方法,可以在仅使用 10% 的数据的情况下实现比以前的全监督模型更好的性能,同时提高用户满意度和效率。
Sep, 2023
利用 SyncTOD 改进了与任务有关的对话系统,通过在有限的数据情况下训练具有辅助模型和启示的大型语言模型,实现了在低数据设置中与 LLM 基准模型和 SoTA 模型相比的卓越性能。
May, 2024