Sep, 2021
多语言 BERT 的语言特异性和微调的影响
On the Language-specificity of Multilingual BERT and the Impact of Fine-tuning
Marc Tanti, Lonneke van der Plas, Claudia Borg, Albert Gatt
TL;DR对多语言 BERT(mBERT)进行 fine-tuning,研究其语言特定知识和语言无关知识之间的关系。实验结果表明,fine-tuning 导致模型的表征能力重新组织,增强了语言无关表征,牺牲了语言特定表征。