ACLMay, 2021
极低资源神经机器翻译的连续混合语言预训练
Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural Machine Translation
Zihan Liu, Genta Indra Winata, Pascale Fung
TL;DR本文提出了一种连续预训练 (CPT) 框架来应对低资源语言中看不见的语言,通过使用目标语言的单语语料库构建混合语言文本并继续对 mBART 进行预训练以优化低资源翻译任务,结果表明我们的方法能够持续提高翻译性能。