May, 2023
mPLM-Sim:多语言预训练语言模型中更好的跨语言相似性和迁移揭示
mPLM-Sim: Unveiling Better Cross-Lingual Similarity and Transfer in Multilingual Pretrained Language Models
Peiqin Lin, Chengzhi Hu, Zheyu Zhang, André F. T. Martins, Hinrich Schütze
TL;DR本文提出了一种新的多语言相似性度量方法 mPLM-Sim,通过从 mPLMs 中使用多语言并列语料库感知不同语言之间的相似性,结果表明该方法较传统的语言相似性度量方法具有更高的相关性,并在零 - shot 跨语言转移任务中展现了更好的效果。