Sep, 2021

减轻BERT中的语言依赖性民族偏见

TL;DR本文旨在研究BERT等大型语言模型中的偏见问题,特别是种族偏见问题的度量和消除方法,使用了“Categorical Bias score”度量方法和两种消除方法,包括多语言模型和两个单语言模型的上下文词对齐方法,并对英语,德语,西班牙语,韩语,土耳其语和中文等多种语言进行验证和比较。结果表明,这些方法可以有效减轻种族偏见问题,但效果取决于该语言的NLP资源量。同时,本论文还验证了这些方法适用于更多种语言,如阿拉伯语和希腊语。