May, 2023

关于自然语言处理中的偏见和公平性:如何实现更公正的文本分类?

TL;DR本文系统分析了 NLP 模型中的上游偏差、样本偏差和过度放大偏差导致的不公平性,探讨了使用不同去偏技术消除这些偏差对文本分类任务公正性的影响,并发现过度放大偏差是对文本分类公正性影响最大的偏差。而通过在收集不同身份群体平衡的数据集上进行 LM 模型微调来消除过度放大偏差会导致更公正的文本分类模型,最终提出了创建公正的文本分类模型的实用指南。