AAAINov, 2019

非自回归神经机器翻译中的 N 元词袋差异最小化

TL;DR本文提出通过训练 NAT 最小化模型输出和参考句子之间的 N-Gram 差异来促进 NAT 捕捉目标方面的序列依赖性,并与翻译质量相关。在三个翻译任务上验证了我们的方法,结果显示我们的方法在 WMT14 En<->De 和 WMT16 En<->Ro 上比 NAT 基线大约 5.0 和 2.5 个 BLEU 分数。