ACLJun, 2021
Syntax-augmented Multilingual BERT 跨语言转移
Syntax-augmented Multilingual BERT for Cross-lingual Transfer
Wasi Uddin Ahmad, Haoran Li, Kai-Wei Chang, Yashar Mehdad
TL;DR本研究表明,通过在辅助目标中提供语言语法和训练 mBERT 以对通用依赖树结构进行编码,可提高跨语言转移,从而提高了在四项 NLP 任务中的性能表现。