机器学习中的种族分类
在人工智能和算法公平性的文献中,种族多样性已成为越来越受关注的议题,然而鲜有关注对种族类别的选择进行合理化解释以及如何让人们置于这些选取的种族类别中。更少的关注度放在种族类别如何转变以及种族化过程如何随着数据集或模型的背景而改变。对于选取种族类别中包含的人群和他们如何置于这些类别中的不清楚理解,可能会导致对这些类别的不同解读。当真实的种族化过程和使用的种族类别的理解与实际不符时,这些不同的解读可能会引发伤害。如果种族化过程和使用的种族类别在所应用的背景中无关或不存在,也可能引发伤害。在本文中,我们进行了两方面的贡献。首先,我们演示了不明确假设和不合理解释的种族类别如何导致各种数据集的多样性,这些数据集无法很好地代表被这些种族类别混淆或未被代表的群体,以及如何导致模型在这些群体上表现不佳。其次,我们开发了一个框架 CIRCSheets,用于记录选择种族类别和进行种族化过程的假设,以促进理解数据集或模型开发者在选择或使用这些种族类别时所做的过程和假设的透明度。
Apr, 2024
本文通过对计算机视觉中的人脸图像进行对比实验,发现虽然数据集中使用的种族类别表面上相似,但每个数据集编码了一个大不相同的种族系统,一些种族类别在数据集间的一致性程度比其他种族类别更低,并且种族类别可能存在刻板印象和忽略某些民族群体的问题,因此需要更具文化感知性和灵活性的公正度量方法。
Feb, 2021
本文探讨算法公平框架中如何采纳种族和种族范畴,认为目前的方法未能充分考虑种族的社会构造性质,指出需要理解种族具有的多维性、关注种族不平等的社会过程,并关注最受社会技术系统影响的人的观点。
Dec, 2019
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
介绍了一种新的不公平性概念 —— 不同的不公平待遇,并提出了针对基于决策边界分类器的不同不公平待遇的直观度量方法,这些方法可以轻松地作为凸 - 凹约束包含在公式中。实验表明,该方法在避免不同不公平待遇方面是有效的。
Oct, 2016
AI/NLP models trained on racially biased datasets demonstrate various types of bias, raising profound ethical implications regarding the impact of these models on user experience and decision-making due to the presence of racial bias features in datasets. The research implicates a negative influence on users' persuasiveness due to unexplainable discriminatory outcomes, calling for responsible AI frameworks within organizations.
Jan, 2022
本文通过探索 “原因模型” 的形式假设,阐述性别仅仅是一个性状的集合是虚假的,这对于如何使用模型检测歧视具有重要意义,并且构成一个不同类型的对待歧视的道德问题。
Jun, 2020
介绍数据科学社区应该关注机器学习和数据挖掘过程中潜在的歧视问题,探讨歧视的测量和开发过程中如何改进以减少系统潜在的歧视性,并呼吁数据科学家应该有意识地建模和减少歧视结果的产生。
Jul, 2019
应用研究论文探讨了人工智能加剧或减轻种族系统性不公对社会的影响。研究从识别、分析和辩论系统性问题的各个主题入手,调查了算法自动化处理种族敏感环境中的人类决策的优缺点。通过分析历史系统化模式、隐性偏见、现有算法风险和法律后果,指出基于自然语言处理的人工智能(如风险评估工具)存在种族不平等问题。论文得出结论:需要更多诉讼政策来规范和限制政府机构和企业如何利用算法,隐私和安全风险,审计要求,以避免过去的不公正结局和做法。
Jan, 2022
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑到的局限与可能的风险。
May, 2023