EMNLPSep, 2021

利用弹性权重整合改进计划采样用于神经机器翻译

TL;DR通过系统实验,本文发现 MaxML 存在的曝光偏差问题是 “抽样计划” 的缺点,该计划加剧了当推理时间的前缀是正确的时的性能下降,即灾难性忘记。因此,提出使用 “弹性权重合并” 方法来更好地平衡减轻曝光偏差与保持性能。在四个翻译数据集上的实验表明,该方法缓解了灾难性忘记问题,并显著优于最大似然估计和计划抽样对照组。