ACLMar, 2022
神经机器翻译的通用条件掩码语言预训练
Universal Conditional Masked Language Pre-training for Neural Machine Translation
Pengfei Li, Liangyou Li, Meng Zhang, Minghao Wu, Qun Liu
TL;DR本文介绍了一种 CeMAT 方法,即一种在双语和单语语料库上进行预训练的条件掩码语言模型,其中包括双向解码器,通过该方法可以在低资源及高资源语言下分别提高 14.4 BLEU 和 7.9 BLEU 及能显著提高 Autoregressive NMT 的性能。此外,本文还首次在 NMT 任务上使用了统一预训练模型,并提供相关数据和模型。