May, 2020

为BERT多语能力识别必要元素

TL;DR该研究通过实现小型BERT模型的混合合成数据和自然数据训练,试图从语言学和结构特征两个方面,探究多语BERT能实现无监督跨语言转移的原因。其结果表明,在lexical、syntactic以及阅读理解方面,mBERT已实现了高质量的多语言表征和跨语言转移功能。