AAAINov, 2022

非自回归机器翻译参考文献改写

TL;DR本文介绍了一种针对非自回归神经机器翻译(NAT)多模问题的解决方案:引入一种重新表述器 (rephraser) 来为 NAT 提供更好的训练目标,并通过强化学习优化该目标,从而提高 NAT 翻译质量,在主要 WMT 基准和 NAT 基线上实验表明相比原始 NAT 的翻译质量有了明显的提高,且最优实验方案的推理效率是自回归 Transformer 的 14.7 倍。