Dec, 2020

XLM-T: 使用预训练的跨语言 Transformer 编码器扩展多语言机器翻译能力

TL;DR本文介绍了使用预训练的跨语言 Transformer 编码器初始化模型,并使用多语言平行数据微调的简单方法 XLM-T,它在 10 种语言对的 WMT 数据集和 94 种语言对的 OPUS-100 语料库中实现了显着的性能提升。此外,对 XLM-T 进行的无监督句法分析,词对齐和多语言分类的广泛分析说明了其对机器翻译的有效性。