算法公平性中批判性种族方法的探索
在人工智能和算法公平性的文献中,种族多样性已成为越来越受关注的议题,然而鲜有关注对种族类别的选择进行合理化解释以及如何让人们置于这些选取的种族类别中。更少的关注度放在种族类别如何转变以及种族化过程如何随着数据集或模型的背景而改变。对于选取种族类别中包含的人群和他们如何置于这些类别中的不清楚理解,可能会导致对这些类别的不同解读。当真实的种族化过程和使用的种族类别的理解与实际不符时,这些不同的解读可能会引发伤害。如果种族化过程和使用的种族类别在所应用的背景中无关或不存在,也可能引发伤害。在本文中,我们进行了两方面的贡献。首先,我们演示了不明确假设和不合理解释的种族类别如何导致各种数据集的多样性,这些数据集无法很好地代表被这些种族类别混淆或未被代表的群体,以及如何导致模型在这些群体上表现不佳。其次,我们开发了一个框架 CIRCSheets,用于记录选择种族类别和进行种族化过程的假设,以促进理解数据集或模型开发者在选择或使用这些种族类别时所做的过程和假设的透明度。
Apr, 2024
本文探讨了收集人口统计数据用于实现算法公平性所面临的风险和挑战,并呼吁在数据管理和系统性压抑等领域中解决这些问题。
Apr, 2022
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019