EMNLPSep, 2018

基于概率 N-gram 匹配的贪婪搜索神经机器翻译

TL;DR该研究提出一种基于可微序列级训练目标的方法,使用概率 n-gram 匹配来避免强化学习框架,该方法在训练中执行贪心搜索并使用预测的单词作为上下文,以缓解曝光偏差问题,实验结果表明,该方法在 NIST 中英文翻译任务中显着优于基于强化学习的算法,并在强基线系统上平均实现了 1.5 个 BLEU 点的改进。