如何捕捉交叉公平性
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
该论文介绍了一种特定的数据增强方法,旨在增强分类任务中的交叉公平性。这种方法利用交叉性内在的层级结构,将群体视为其父类别的交集,通过学习组合父类群体数据的转换函数,对较小群体进行数据增强。我们对四个不同数据集进行的实证分析(包括文本和图像)表明,使用这种数据增强方法训练的分类器在交叉公平性方面表现优秀,并且在与优化传统群体公平度量方法相比时更具鲁棒性。
May, 2024
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
Nov, 2018
通过引入结构回归方法进行细分评估,以演示即使对于非常小的子群体,也可以得出可靠的系统性能估计,进而提供相应的推断策略以构建置信区间,并探索拟合度检验如何揭示交叉群体所经历的公平相关伤害的结构。
Jan, 2024
通过引入在组公平性的形式定义,提出了一种预处理框架,以实现组间和组内公平性,并在维持准确性的同时,保证了来自同一族群的个体之间的公平性。将此框架应用于 COMPAS 风险评估和法学院数据集,并将其在实现组间和组内公平性方面的性能与两种基于正则化的方法进行了比较。
Oct, 2023