ACLOct, 2020

多语言语言模型处理新语言的挑战:从 mBERT 不可见开始

TL;DR通过比较多语言和单语言模型,本文表明了在大量的原始数据上使用基于预训练语言模型的迁移学习在处理未见过的语言中存在多种行为,其中一些语言能够从迁移学习中受益,而另一些则似乎不行,我们还发现这种无法传递的失败很大程度上与用于书写这些语言的字符的影响有关,转写这些语言可以极大地提高后续任务的大规模多语言语言模型的能力。