EMNLPApr, 2021
多语言预训练编码器在零样本跨语言神经机器翻译中的应用
Zero-shot Cross-lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders
Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang...
TL;DR本研究提出了 SixT,一种利用多语言预训练编码器(MPE)来促进神经机器翻译模型的跨语言迁移的方法。通过采用两阶段训练计划和位置解缠编码器以及容量增强解码器,SixT 在零基础多语言翻译任务上取得了比已有模型更好的结果。