因果多层公平性
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
通过分析算法公平性的因果定义,本文发现无论是基于对抗偏见的决策影响还是基于法律保护分类的影响,这些定义几乎总是以极端帕累托支配的决策方案结束,这突显了因果公平性普遍数学概念的形式限制和潜在的不良后果。
Jul, 2022
通过多次敏感特征逐步实现公平性,利用多元 Wasserstein 几何中心将 Strong Demographic Parity 的标准推广到具有多个敏感特征的情况,并提供一种闭式解决方案,使得对不同敏感特征之间的相关性有明确的解释,进而实现了风险和不公平性之间的权衡。该方法适用于近似公平性,提供了对特定敏感特征的公平性改进的有针对性优先级,从而实现了针对案例的适应性,通过数据驱动的解决方案估计程序,并在合成和真实数据集上进行了全面的数值实验证明了我们的后处理方法在促进公平决策方面的实际有效性。
Sep, 2023
本文探讨算法公平框架中如何采纳种族和种族范畴,认为目前的方法未能充分考虑种族的社会构造性质,指出需要理解种族具有的多维性、关注种族不平等的社会过程,并关注最受社会技术系统影响的人的观点。
Dec, 2019
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
论文提出了一种基于两阶段最小二乘法的公平机器学习算法,能够有效处理数据中敏感属性与非敏感属性相关的不公平问题, 其独特之处在于该算法针对回归模型的不公平问题也能做出有效处理,并且能够解决数字敏感属性的问题,经实验验证表现卓越。
Oct, 2017