基於改寫的任務導向對話生成
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
我们开发了一种新型的对话扩充模型,通过完整的对话上下文生成用户的回合,并通过语言模型的新提示设计和输出重新排序,所生成对话可直接用于训练下游对话系统,在常见的基准数据集 MultiWoZ 和 SGD 上,展示了我们的对话扩充模型生成高质量对话并使对话成功率较基准线提高多达 8%。
Oct, 2023
介绍了 AARGH,一个综合了检索和生成方法的端到端任务导向对话系统,旨在改善对话管理和输出的词汇多样性。在 MultiWOZ 数据集上,我们展示了该方法相对于最先进的基线方法可以产生更多样化的输出,同时维持或提高状态跟踪和上下文 - 响应生成性能。
Sep, 2022
本文提出了一种数据增强方法以及筛选技术来增加开放域对话系统数据集中不同语义的高质量回复,通过对事实的推理来推断出具有不同语义的回复,并过滤掉有害的增强回复,实验结果表明,该方法可以在多个下游任务中胜过竞争基线。
Oct, 2022
本文介绍了一种通过抽象意义表示来创建大规模句法多样的同义句数据集 ParaAMR,并证明了其在各种 NLP 应用方面的巨大潜力。
May, 2023
提出了一种半监督学习框架 SemiDQG,通过使用未标注的对话数据来改进模型性能,使用类似度选择策略选取高质量伪查询进一步训练模型,并采用 REINFORCE 算法作为精细化训练信号,实验结果表明该框架在跨领域和资源有限场景中具有显著优势。
Dec, 2023
本研究提出了一种基于 AMR 的修改短语生成模型 (AMRPG),该模型通过对抽象含义表示进行编码,从而在语法控制和短语生成质量方面显着提高了非监督学习方法的性能,并可用于数据增强以改善 NLP 模型的鲁棒性。
Nov, 2022
研究了应用数据增强和改进 NLU 模型对于在基于游戏学习场景中帮助儿童学习数学基本概念的多模式对话系统的有效性,得到了使用小型数据集进行 MITL 策略下的改写的良好表现。
May, 2022
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017
该论文提出了一个简单、通用和有效的对话系统模型 - 交替角色对话模型(ARDM),利用大规模预训练语言模型,可在无需人类注释监督的情况下实现有效会话,并且在 CamRest676 和 MultiWOZ 等任务导向型对话数据集上的表现优于或与最先进的方法相当。该模型还可推广到更具挑战性的非协作任务,例如说服任务,能够生成类似于人的回复,以说服人们捐赠慈善事业。
Oct, 2019