Nov, 2022

掩码语言模型预训练阶段性别偏见出现意外波动

TL;DR掩蔽语言模型在预训练时会出现性别偏见。我们的研究表明,这些偏见不仅与模型架构和语料库有关,而且还与个别模板的基本层面存在严重波动,这一假设无效。此外,这些波动并不与预测的代词的确定性或预训练语料库中的职业频率相关。我们公开了代码和数据,以造福未来的研究。