交叉公平性:分形方法
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
Nov, 2018
本研究探讨交叉性是如何应用于 AI Fairness 领域,并指出研究人员在这个应用方面所存在的概念和实践差距,并提出了关于如何改进这种状况的建议。
Mar, 2023
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
本文提出了一种新的框架 ——α 交叉公平(Intersectional Fairness)框架,来解决交叉敏感群体的分类问题,提出了一种新的公平度量,并在实验中验证了该框架的有效性以及一些算法的有效性。
May, 2023
AI 系统在特定人群中产生不公平结果,需要理解特定敏感属性上的偏见。本文通过发现交叉敏感属性下多样化的高偏见子群体,提出了一种基于偏见引导的生成网络(BGGN)。通过将每个偏见值视为奖励,BGGN 可以高效地生成高偏见的交叉敏感属性。实验证明 BGGN 在现实世界的文本和图像数据集上具有多样性且高效的发现能力。进一步评估生成的未见但可能存在不公平的交叉敏感属性,我们将其建模为提示,并使用现代生成型人工智能生成新的文本和图像。频繁生成偏见数据的结果为发现流行现代生成型人工智能系统中潜在的不公平提供了新的见解。警告:本文包含具有冒犯性的生成示例。
May, 2024
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022