ACLJun, 2021

Syntax-augmented Multilingual BERT 跨语言转移

TL;DR本研究表明,通过在辅助目标中提供语言语法和训练 mBERT 以对通用依赖树结构进行编码,可提高跨语言转移,从而提高了在四项 NLP 任务中的性能表现。