Q-TOD: 基于查询的任务导向对话系统
本篇论文提出了主观知识为基础的任务导向对话系统(SK-TOD)的新任务,以及配套的数据集,该数据集包含了主观知识寻求对话上下文和手动注释的响应,并探究了多个知识片段的不同观点如何汇聚的问题,以期促进 TOD 和主观内容理解的进一步研究。
May, 2023
我们提出了 AnyTOD,这是一种端到端的,零 - shot 的任务导向对话系统,能够处理未见过的任务,而不需要特定的培训。我们采用了一种神经符号方法,其中神经语言模型跟踪对话中发生的事件,并执行符号程序以推荐应该采取的下一个操作,从而显著降低了数据注释和模型训练的要求,并展示了在任务和领域上的强大的零 - shot 迁移能力。
Dec, 2022
该研究提出了一种基于 Task-Optimized Adapters 和强化学习的 End-to-end TOD 系统,能够独立学习每个任务,并在 MultiWOZ 基准测试上表现出优越的性能,特别是在 2.2 数据集上的 DST 任务达到了最先进的水平。
May, 2023
本文提出了一种新的任务定向对话数据增强方法 TOD-DA,它包括对话丰富和口语会话模拟器,可以增加大规模高质量带注释口语会话,以提高口语任务定向对话建模的鲁棒性。在 DSTC10 Track2 的两项任务中,我们的方法均排名第一,证明了 TOD-DA 的优越性和有效性。
Dec, 2021
在这项工作中,我们研究了如何将任务定向对话和有知识的聊天有机地整合到单个模型中,通过创建一个新的数据集 KETOD 来自然地丰富基于相关实体知识的任务定向对话。我们还提出了两个新模型,SimpleToDPlus 和 Combiner,在自动和人工评估的实验结果中表现出显著的优越性能。
May, 2022
本文提出了一种新的任务 Open-Book TOD,将任务定向对话(TOD)与问答(QA)相结合,并扩展了外部知识来源,包括显式和隐式知识源。作者还创建了一个新的数据集 OB-MultiWOZ,提出了一个统一模型 OPERA,通过访问外部知识来应对定义的任务。实验结果表明,OPERA 的性能优于闭式基线,两种类型的知识都有其价值。
Jun, 2022
提出一种基于检索的方法,以加强 TOD 系统中的知识选择,并结合半监督学习进行潜变量模型,该模型可以与知识检索器一起利用有标签和无标签的对话数据。实验证明,该方法在有标签和半监督设置下均优于传统的数据库查询方法。
May, 2023
通过使用简单的缓存,该研究为任务导向对话系统带来了更大的灵活性。实验表明,该框架具有卓越的性能,与强基线相比,非空联合目标准确率提高了 6.7%。
Aug, 2023
该研究提出了通过 PPTOD 模型和新的对话多任务预训练策略来解决任务导向对话系统中存在的级联生成问题,取得了针对几个基准 TOD 任务的最新成果。
Sep, 2021
提出了一种自动生成结合任务导向对话和开放领域对话的框架,同时介绍了一种适用于这一任务的统一模型 PivotBot,并通过评估结果证明,该模型能够在任务导向对话和开放领域对话之间无缝切换。
Dec, 2022