Mar, 2022

多语种预训练语言模型的事实一致性

TL;DR本文调查了多语言语言模型(如 mBERT 和 XLM-R)在一些语言下对事实知识预测的一致性,并发现尽管在英语下,这些模型的一致性与其单语言模型相似,但在其他 45 种语言下,这些模型的一致性程度却较低。