Oct, 2022
预训练的多语言模型在不同语言间的公平性是否相同?
Are Pretrained Multilingual Models Equally Fair Across Languages?
TL;DR探讨预训练多语言语言模型的组公平性,通过创建一个新的平行洞察测试实例的多语言数据集(MozArt)及使用人口统计信息来评估三种多语言模型(mBERT,XLM-R和mT5),我们发现这三种模型在四种目标语言中表现出不同程度的组不公平性,例如在西班牙语中表现出接近相等的风险,但在德语中表现出高水平的不平等。