ACLMay, 2022

用预训练模块化 Transformer 解除多语言性的诅咒

TL;DR该研究通过引入语言特定模块解决了多语言预训练模型中语言性能下降的问题,并在自然语言推断,命名实体识别和问答等方面证明了该方法的有效性,同时也使得可以在不降低性能的情况下添加新的语言。