ACLMar, 2021

通过词汇替换实现多语言机器翻译的连续学习

TL;DR本研究提出了一种简单的词汇适应方案,以扩大多语言机器翻译模型的语言容量,为多语言机器翻译的高效连续学习铺平了道路。我们的方法适用于大规模数据集,适用于未见过脚本的远程语言,在原始语言对的翻译性能上只有轻微的降低,在仅拥有新语言的单语数据的情况下也提供了具有竞争力的性能。