变分循环神经机器翻译
本文提出了一种变分神经机器翻译编码器 - 解码器模型,引入了一个连续潜变量来明确建模源句子的潜在语义并引导目标翻译的生成,通过神经后验估计技术对该模型进行训练,在中英文和英德翻译任务中实现了显著的性能提升。
May, 2016
本研究提出了利用变分神经机器翻译(VNMT)框架来改进翻译准确性,通过引入潜在的随机变量模拟源语句和目标翻译的生成,并针对目前 Transformer 的不足进行改进,实现了在域内和域外条件下显著优于强基线的效果。
May, 2020
探讨使用潜变量模型实现神经机器翻译中的条件文本生成性能,通过引入连续潜变量来增强编码器 - 解码器 NMT 范例,利用 Inference Network 中的共同关注机制来扩展该模型,使用不同方法试图缓解后验崩溃问题,并且探究学习潜空间的能力,该模型能有效地优化翻译模型。
Dec, 2018
本文研究了将潜在随机变量引入到循环神经网络(RNN)的动态隐藏状态中,结合变分自编码器,通过高级潜在随机变量建立了变分循环神经网络(VRNN),可以很好地建模结构化序列数据,如自然语音。通过对四个语音数据集和一个手写数据集的实证评估,证明了潜在随机变量在 RNN 动态隐藏状态中的重要作用。
Jun, 2015
我们提出了一种基于神经网络的双语句子对深度生成模型来进行机器翻译,能够通过共享的潜在表示联合生成源语言句子和目标语言句子,并使用摊余变分推断和重参数化梯度进行高效的训练,可以在领域内、混合领域数据、金标准和合成数据混合学习等各种情况下显示出比条件建模(即标准神经机器翻译)更好的性能。同时,我们讨论了联合建模的统计学意义,并提出了一种高效的近似方法来进行最大后验解码,以便在测试时进行快速预测。
Jul, 2018
LaNMT 是一种基于最近的改进方法的潜变量非自回归模型,具有连续潜变量和确定性推断过程,在推断期间,翻译的长度自动适应,在 ASPEC Ja-En 数据集上的解码速度比自回归算法快 8.6 倍,在 WMT'14 En-De 数据集上,解码速度比自回归基线快 12.5 倍,且独立的并行解码和教师模型再评分可以将性能差距进一步降至 1.0 BLEU point。
Aug, 2019
本文介绍一种基于 RNN 和 VAE 的生成模型,该模型可以显式地模拟句子的整体特征,并通过分布式的潜在表示编码句子的风格、主题和高级语法特征。模型生成多样且完整的句子,能够插值生成连贯且新颖的句子,并用于填补缺失的词,同时探索了潜在句子空间的许多有趣属性。
Nov, 2015
本文提出了变分 Transformer(VT)算法,将变分自注意力前馈序列模型与 CVAE 的变分性质相结合,从而有效处理对话响应生成领域中高熵任务的问题,并在多个对话数据集上获得了性能提升。
Mar, 2020