Sep, 2021

多语言 BERT 的语言特异性和微调的影响

TL;DR对多语言 BERT(mBERT)进行 fine-tuning,研究其语言特定知识和语言无关知识之间的关系。实验结果表明,fine-tuning 导致模型的表征能力重新组织,增强了语言无关表征,牺牲了语言特定表征。