通过因果推理避免歧视
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文介绍一种基于倾向得分分析的原因型歧视方法,并利用回归树学习新的歧视 / 偏袒模式,验证在两个现实世界的数据集上,它可以加强机器学习透明度并探测训练数据和学习算法中的歧视性偏差。
Aug, 2016
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
本研究提出了一种针对监督学习中指定敏感属性的歧视判据,结合 FICO 信用评分案例研究来说明该判据是如何通过调整学习预测器的方式达到消除歧视的目的。同时,本文研究了基于被遗忘的测试方式定义和识别偏见的固有限制。
Oct, 2016
若以相等的人受到相同待遇,不相等的人受到不同待遇定义决策为公平,采用此定义,设计机器学习模型以减少自动决策系统中的不公平必须引入保护属性时进行因果思考。根据近期提出的建议,我们将个体定义为在一个虚构的、规范化的期望(FiND)世界中相等,该世界中保护属性对目标没有(直接或间接)因果影响。我们提出了保持排名的干预分布来定义这个 FiND 世界的估计量,并提出了一种估计方法。对于该方法和得到的模型,我们提出了评估标准,并通过模拟和实证数据进行了验证。通过此方法,我们展示了我们的调整方法能够有效识别出最受歧视的个体,并减少了不公平。
Jul, 2023
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本文讨论在决策制定中创造公平算法的因果推理的重要性,回顾了现有的公正性方法,描述了因果方法理解所必需的工作,论证了在希望公平的任何方法中都需要因果性,并详细分析了许多近期因果公平的方式。
May, 2018
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020