本文介绍了神经助手:一种基于神经网络模型的任务导向对话系统,该系统采用了外部知识源,并联合生成文本响应和行动预测,以消除信念状态注释的需要,并实现更高的事实准确性和语言生成性能。
Oct, 2019
提出了一个名为MADA的多行为数据增强框架,用于生成多样化的对话回复,该框架利用了对话的一对多属性,并改善了对话策略及回复多样性的表现。
Nov, 2019
该研究通过四种自动方法在单词和句子级别上增强数据,提高目标导向对话模型的数据效果,并在两个数据集上进行实验,结果表明四种数据扩充方法在Success F1 score方面均能显著提高。进一步分析确认,增加用户话语的多样性可以使端到端模型学习特征更为稳健。
Dec, 2019
本文提出了一种名为Variational Hierarchical Dialog Autoencoder(VHDA)的深度生成模型,用于goal-oriented dialogs的任务,它有效地捕获了不同层次和类型的dialog features之间的一致性,并且使用生成性数据增强方案,提高了下游目标跟踪器的鲁棒性,同时也在dialog response generation和user simulation方面具有良好表现。
Jan, 2020
该研究提出了一种基于替换词增强的响应生成(PARG)框架,该框架联合训练了一个替换模型和一个响应生成模型,以提高对话生成的性能,并通过对话状态和对话行为标签自动构建替换培训数据集。实验结果表明,所提出的框架进一步改善了CamRest676和MultiWOZ上最先进的对话模型,并在对话生成任务中显着优于其他数据增强方法,特别是在资源不足的情况下。
Apr, 2020
为了解决注意力语言模型在任务导向对话中的缺陷,这篇论文引入了修改过的训练目标和巨量数据增强技术,研究数据来源的多重组合方式,并通过人工和自动评估证明了方法的高效性,取得了与最先进技术的竞争性表现。
Feb, 2021
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
本文通过使用 context 动态提示的方法,改善了在多轮任务指向对话系统中的通用响应生成。在 MultiWOZ 2.2 数据集上验证后,相较于仅进行的前缀手段,综合值得分提高了 3 个绝对点,同时还将状态对话的提升幅度加大了 20 个绝对点。
Jan, 2023
介绍一种选择性数据增强框架(SDA),它利用对抗网络选择哪些数据点适合用于增强神经对话模型的性能,从而改善响应生成性能。
Mar, 2023
在任务导向型对话系统中,通过数据增强方法在端到端设置下进行实证评估,证明了所有考虑的数据增强方法都是有益的,并提供了最佳方法和实践建议,同时引入了一个更具挑战性的少样本跨领域任务导向型对话系统的设置。
Jun, 2024