Feb, 2024

借助误差暴露和一致性规范化提升非自回归机器翻译

TL;DR通过错误曝光和一致性正则化的训练方法,研究中提出了解决条件掩码语言模型 (CMLM) 在训练和推断之间数据分布差异的问题,并在五个翻译基准上实验,取得了相对基线模型平均 0.68 和 0.40 BLEU 得分的改进,同时我们的 CMLMC-EECR 在与 Transformer 相比的翻译质量上达到了最佳表现,实验结果验证了我们方法的有效性。