通过在多个任务上训练基于 Transformer 编码器的统一模型,并借助富输入在目标推理上对模型进行条件化,本文探索了解决对话系统中用户意图的不可预测性和插槽的异构性的假设,并表明将模型条件化于对同一语料库上的多个推理任务,如意图和多个插槽类型,可以学习到比单任务模型更丰富的语言交互;实验结果表明,将模型条件化于越来越多的对话推理任务可以提高性能,MultiWOZ 数据集上,通过对意图进行条件化可以提高 3.2%的联合意图和插槽检测性能,通过对插槽进行条件化可以提高 10.8%的性能,同时对意图和插槽进行条件化可以提高 14.4%的性能;此外,在与 Farfetch 客户的实际对话中,该条件化 BERT 可以在整个对话过程中实现高效的联合目标和意图检测性能。
Aug, 2023
本文介绍一种基于神经网络的端到端可训练的目标导向对话系统,以及一种新的数据收集方法,该方法基于一种新型的管道式 Wizard-of-Oz 框架。该方法可用于开发对话系统,帮助用户在餐厅搜索领域自然地交流并完成任务。
Apr, 2016
本文提出了一种多任务学习框架,利用文本数据来提高自动语音识别和语音翻译的性能,其中包括基于注意力的序列到序列建模、去噪自动编码器、机器翻译等技术。在英语语音识别任务中,该方法相对于基线线下降了 10~15% 的词错误率,在 MuST-C 任务中有 3.6~9.2 BLEU 的提高。
Oct, 2020
本文提出了一种使用多任务学习方法训练神经会话模型的方式来解决根据具体发言人训练缺乏数据、建立基于角色的会话代理的问题。实验证明该方法显著提高了基线模型的质量,生成更准确地捕捉发言者特征和讲话风格的响应,并且该方法算法简单易实现,不依赖于代表特定个体发言者的大量数据。
Oct, 2017
研究通过自我训练的方法,利用大量未标记的对话数据进一步改进预先训练的模型,以应对高昂的对话系统不同模块的标注成本问题,并证明该方法在少量标记数据可利用时可以一致提高现有预先训练模型的性能。
Aug, 2021
本文介绍了一种简单而有效的数据中心方法,用于改善个性化对话代理。通过利用针对两个任务的原始 - 对偶结构(预测对话响应和个人资料之间的联系),我们增强了相关人物角色,以改进对话数据集 / 代理,并修复了基准数据集的注释问题,其巨大地增加了模型的精度,体现在 Persona-Chat 上的实验中,我们的方法在准确性上比预训练 LM 高出 11.7 个百分点。
Feb, 2022
通过自然语言条件化的模拟学习方法,结合像素感知、自然语言理解和多任务连续控制的神经网络,可以在无需任务或语言标签的情况下,显著提高任务成果,同时将语言注释成本降低到总数据量的不到 1%。
May, 2020
本文提出了一种基于 BART 的神经响应生成模型,通过多任务学习生成和分类,并注重情感,在对生成响应的同时识别情感。自动评估和众包手动评估显示,该模型使生成的响应更富有情感意识。
May, 2021
本论文提出了一种基于 TRADE 的可转移对话状态生成器,结合简单有效的话语标记技术和双向语言模型的多任务学习模型,旨在解决基线性能在长对话上大幅下降的问题,最终在 MultiWOZ 2.0 数据集上实现了 52.04%的联合目标准确性,相对提高了 7.03%,成为了最新的最先进技术。
Apr, 2020
本文介绍了我们在 DSTC-10 上构建对话模型的方法。为缩小口头和书面数据之间的差距,我们采用了大量数据扩增策略,包括人工误差注入和文本转语音转换。我们改良了预训练语言模型,并对每个子任务应用了集成算法,以训练稳健的口头对话模型。我们的方法在官方评估中排名第三,在最终的正式人类评估中排名第二。
Mar, 2022