Dec, 2020

XLM-T: 使用预训练的跨语言 Transformer 编码器扩展多语言机器翻译能力

TL;DR本文介绍了使用预训练的跨语言Transformer编码器初始化模型,并使用多语言平行数据微调的简单方法 XLM-T,它在10种语言对的WMT数据集和94种语言对的OPUS-100语料库中实现了显着的性能提升。此外,对XLM-T进行的无监督句法分析,词对齐和多语言分类的广泛分析说明了其对机器翻译的有效性。