ACLMar, 2022

神经机器翻译的通用条件掩码语言预训练

TL;DR本文介绍了一种 CeMAT 方法,即一种在双语和单语语料库上进行预训练的条件掩码语言模型,其中包括双向解码器,通过该方法可以在低资源及高资源语言下分别提高 14.4 BLEU 和 7.9 BLEU 及能显著提高 Autoregressive NMT 的性能。此外,本文还首次在 NMT 任务上使用了统一预训练模型,并提供相关数据和模型。