May, 2022
通过语言分离多语言模型提高低资源无监督翻译的精度
Refining Low-Resource Unsupervised Translation by Language
Disentanglement of Multilingual Model
TL;DR该论文提出一种简单的细化流程,将语言从预训练的多语言UMT模型中分离出来,使其专注于目标低资源任务,并实现了英语到尼泊尔语、僧伽罗语、古吉拉特语、拉脱维亚语、爱沙尼亚语和哈萨克语的全无监督翻译任务的最先进,其BLEU得分分别为3.5,3.5,3.3,4.1,4.2和3.3。