ACLOct, 2021
为实现零样本神经机器翻译最大化利用多语言预训练
Towards Making the Most of Multilingual Pretraining for Zero-Shot Neural Machine Translation
Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan...
TL;DR论文证明多语言预训练和微调策略对于零 - shot 翻译是至关重要的,本文提出了一个强大的多语言翻译模型 SixT+,支持 100 多种源语言,并实现了在不同翻译任务中的最好表现。