May, 2022

使用多语言BERT进行零样本跨语言迁移中的特征聚合

TL;DR本文探讨了利用mBERT最后一个transformer层以外的信息,采用基于attention机制的特征聚合模块,对不同层次的信息进行融合。实验结果表明,在XNLI、PAWS-X、NER、POS等关键领域任务中,该方法在零-shot Cross-lingual下具有良好的性能提升,并且探讨了mBERT的可解释性。