在一个综述中,作者回顾了交叉公平的最新进展并提供了分类法和矫正算法以缓解交叉偏差,最后指出研究者未来的研究方向和挑战。
May, 2023
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
通过在超立方体的几何设置下,将交叉公平问题分层分析,证明了公平并不向下传递,但会向上传递,探讨了公平作为自相似、分形、关联属性在人工智能中的自然涌现。
Feb, 2023
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
Nov, 2018
本研究探讨交叉性是如何应用于 AI Fairness 领域,并指出研究人员在这个应用方面所存在的概念和实践差距,并提出了关于如何改进这种状况的建议。
Mar, 2023
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文提出了一种新的框架 ——α 交叉公平(Intersectional Fairness)框架,来解决交叉敏感群体的分类问题,提出了一种新的公平度量,并在实验中验证了该框架的有效性以及一些算法的有效性。
本文通過殘疾人的角度分析了人工智能對殘疾人的道德影響,並且提出了讓研究者進一步關注道德正義而非簡單的公平性的思路。
Aug, 2019
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为定义的不同群体之间的信用分配不公平问题。我们发现在多元社会中应用自动化决策系统时,交叉性别、年龄和家庭状况的身份会影响信用分配模式,而机器学习技术对社会公平与不公平视而不见。因此,更全面地考虑交叉身份可以增强算法公平性的视角,更真实地推动平等结果,并提供更公正的前进路径。同时,我们发现除了受法律保护的特征外,像单亲状态和子女数量这样的敏感属性也可能导致不平衡的伤害。本研究对金融服务行业的影响进行了讨论。
Aug, 2023