端到端生成式对话代理的对抗性学习
本文提出了一种基于对抗训练的方法用于生成开放领域对话,该系统的对话和人类对话几乎无法区分。作者将问题转化为一个强化学习问题,同时训练一个生成模型和一个鉴别器,用于评估生成的对话是否和人类对话相似,并将鉴别器的输出作为奖励信号,并进一步提出了一种评估模型 - 对抗性评估模型,该模型可避免一系列潜在的问题。实验结果表明,基于对抗训练的系统生成的响应比先前的基线模型更具参考价值。
Jan, 2017
通过对抗对话塑造探究了两个模型 —— 生成对抗网络与策略梯度(GANPG)和生成对抗网络每个生成步骤进行奖励的模型(REGS),来提升智能对话代理的性能。讨论了使用不同训练细节(seq2seq 和 transformers)在强化学习框架下的表现。
Jul, 2023
本文提出了一个基于生成对抗网络的两步框架,通过自编码学习语句的有意义表征,并学习将输入映射到响应表征上,最终将其解码为响应句子,经定量和定性评估证明相对于现有的最先进方法,该模型生成的响应更具流畅性、相关性和多样性。
Nov, 2019
本文探讨了使用 GAN 自学习等机制解决自然语言生成中离散输出空间问题;通过实验表明,提出的模型在中文古诗生成数据集上取得了最新的高分,可以生成自由语序和概率性上下文无关语法。此外还介绍了一个条件模型,可根据句子特征生成序列。
May, 2017
本文提出了一种基于强化学习和生成对抗网络的新方法,结合注意力机制为每个回答生成可解释的理由,从而在保持自然对话的一致性的同时回答正确地回答问题,取得了当前主要基准测试的最先进结果。
Nov, 2017
本文提出了一种使用生成对抗网络和 Professor Forcing 概念训练的自回归模型,旨在减轻 TTS 中遭遇的曝光偏差问题,AB 测试结果表明该方法相较于传递学习得到了显著的 CMOS 0.1 的改进,语音测试集表现也有大幅度提升。
Apr, 2019
本研究提出了一种基于预测 - 生成 - 转移的神经对话模型,并使用后验生成对抗网络的前向和反向判别器来进一步建模。 实验结果表明,这种方法有效地提高了生成响应信息量和连贯性,并证实了考虑两种评估角度的优势。
Mar, 2020
本篇论文介绍了最近使用生成对抗网络进行文本生成的研究和进展,并对基于对抗学习的文本生成的三种可能选择(即 Gumbel-Softmax 分化,强化学习和修改训练目标)进行了综述。
Dec, 2022