EMNLPMay, 2020

为 BERT 多语能力识别必要元素

TL;DR该研究通过实现小型 BERT 模型的混合合成数据和自然数据训练,试图从语言学和结构特征两个方面,探究多语 BERT 能实现无监督跨语言转移的原因。其结果表明,在 lexical、syntactic 以及阅读理解方面,mBERT 已实现了高质量的多语言表征和跨语言转移功能。