公平PFN: Transformers可以实现反事实公平
本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
用因果贝叶斯网络表示数据生成机制中不公平现象,重新审视与 COMPAS 预审风险评估工具相关的公平性问题,并强调在进行模型的公平性评估时需要仔细考虑训练数据中的不公平模式。通过显示因果贝叶斯网络在数据集中提供了衡量不公平性和设计公平模型的强大工具,得出结论。
Jul, 2019
本文提出了一种新的公平性概念——图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
本研究提出了一种基于因果理论的框架,即CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
本文提出了一种新的框架CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了CLAIRE在反事实公平性和预测性能方面的优越性。
Jul, 2023
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
Oct, 2023
介绍了一种新的数据预处理算法 Orthogonal to Bias (OB),旨在消除连续敏感变量的影响,从而实现机器学习应用中的反事实公平性,并通过模拟和实际数据集的实证评估证明该方法能够在不损害准确性的情况下实现更加公平的结果。
Mar, 2024
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地PSEL值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平/效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本研究关注高风险领域(如医疗和招聘)中机器学习决策的公平性问题,特别是反事实公平(CF)的概念。作者提出了一种简单而有效的方法,能够在不损失最佳性的情况下,将最佳但潜在不公平的预测转化为公平的预测,量化了CF与预测性能之间的内在权衡,并通过实验验证了其有效性。
Sep, 2024