Sep, 2021

一种基于公平性集成框架的毒性语言检测中缓解种族偏见的方法

TL;DR该论文探讨了在流行的有毒语言数据集中存在针对非裔美国英语用户的种族偏见如何存在,并针对这种偏见提出了使用描述公平度量来更好理解其来源的建议。作者提出了一个基于集成框架的方法来减少这些数据集中的意识形态偏见,并提供了实证证据证明其能够取消针对使用非裔美国英语的作者的注释偏见,同时仅对分类性能产生最小的影响。