ACLMay, 2020

使用上下文提高神经机器翻译训练目标

TL;DR本研究提出一种基于文档级度量的神经机器翻译培训方法,使用最小风险训练和蒙特卡罗采样来逼近预期的文档 BLEU 梯度,进而提高了 NMT 性能表现,并在文档级别的 TER 和语法错误修复(GEC)方面取得了一定的进展。