Nov, 2018

低资源神经机器翻译双向可微输入重构

TL;DR本研究通过引入可区分的重构损失,将神经机器翻译(NMT)的有限平行文本的利用更加完善,并探索不引入额外参数的不同iable采样和双向NMT来进行端到端的模型训练。实验表明,在四个语言对中,该方法在向两个方向上均取得了一致的小幅BLEU提高,并且优于另一种基于隐藏状态的可区分重构策略