OPAL: 面向任务的对话的本体感知预训练语言模型
本文通过整合多个人机对话数据集,结合用户和系统记号改良预训练模型,提出了对话任务 BERT(TOD-BERT)模型,并通过四个对话应用领域的实验验证,表明 TOD-BERT 在意图识别、对话状态跟踪、对话行为预测、响应选择等方面超过了强对话模型 BERT,并且具有更强的少量数据学习能力。
Apr, 2020
该研究提出了通过 PPTOD 模型和新的对话多任务预训练策略来解决任务导向对话系统中存在的级联生成问题,取得了针对几个基准 TOD 任务的最新成果。
Sep, 2021
本文提出了一种基于 FutureTOD 模型的对话预训练方法,该方法可通过自我训练并利用未来奖励来使模型学习到当下上下文信息和预测未来信息,从而提高对话表示的概括、鲁棒和学习判别性能力,并在不同的下游对话任务中获得了良好的表现。
Jun, 2023
该研究提出了一种基于 Task-Optimized Adapters 和强化学习的 End-to-end TOD 系统,能够独立学习每个任务,并在 MultiWOZ 基准测试上表现出优越的性能,特别是在 2.2 数据集上的 DST 任务达到了最先进的水平。
May, 2023
本文介绍了我们的 Track 2 模型,利用大规模真实世界的 MobileCS 中国 TOD 数据集,使用半监督学习和强化学习构建知识引导的对话模型,实现了任务导向对话系统的高效预测和人机交互。我们的系统在自动评估和人工交互中表现都极佳,尤其是 BLEU (+7.64) 和 Success (+13.6%) 方面比第二名更优秀。
Oct, 2022
本文提出一种专门为特定任务对话系统设计的预训练模型 PRAL,并设计采用多种技术来提高模型性能及引入了对话预训练数据集,实验结果表明 PRAL 在三种不同任务中表现优异,超越或与最先进的方法持平。
Apr, 2020
本研究比较了使用最新的预训练模型,如 BART 和 T5 对任务导向对话系统的端到端训练的效果和强度,实验结果表明在语言模型微调后,模型生成的响应更流畅、更准确,BART 和 T5 在 BLEU 和 F1 分数方面胜过 GPT-based models,达到了任务导向对话系统的最先进水平。
Jan, 2022
本研究探讨了数据稀缺对于多领域任务导向对话系统快速发展的限制,并提出了一种基于 TransferTransfo 和生成模型预训练的对话模型,并在 MultiWOZ 数据集上进行了验证,结果显示该模型可以有效地绕过显式策略和语言生成模块来实现对于任务的导向和推理。该方法有望缓解数据稀缺问题,进而支持构建更具吸引力和更流畅的任务导向的对话代理人。
Jul, 2019
本文提出了一种基于大规模预训练模型(如 GPT-2)的任务驱动对话系统纯自然语言生成任务,以简化复杂的词语替换处理,但是直接使用会遇到对话实体不一致性和预训练模型精调时的灾难性遗忘问题,因此我们设计了一种新的 GPT-Adapter-CopyNet 网络,它将轻量级 adapter 和 CopyNet 模块融入 GPT-2,以实现更好的迁移学习和对话实体生成,而且实验结果表明,我们的方法在自动和人类评估方面的性能显著优于基线模型。
Aug, 2021