本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
本文提出了两个算法,通过因果模型和反事实决策来实现公平的机器学习预测器,以实现提供平等机会和重修历史劣势。在包括招生、收入、信用和再犯等领域的数据集上进行评估与权衡,结果表明这些预测器在理论上达到了预测性能的最优,同时满足公平性。
May, 2019
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
Oct, 2019
本研究通过反事实思考,提出一种针对ML软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了ML软件的公平性并保持了高竞争力性能
Feb, 2023
本研究提出一种利用反事实推理揭示机器学习和去偏见模型不公平行为的方法,在三个不同数据集上获得验证。
本文提出了一种新的框架CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了CLAIRE在反事实公平性和预测性能方面的优越性。
Jul, 2023
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
Oct, 2023
在这项研究中,我们提出了一种使用所有可用特征进行训练的新算法,从理论和实证方面证明了使用该方法训练的模型能够满足Counterfactual Fairness。
Nov, 2023
介绍了一种新的数据预处理算法 Orthogonal to Bias (OB),旨在消除连续敏感变量的影响,从而实现机器学习应用中的反事实公平性,并通过模拟和实际数据集的实证评估证明该方法能够在不损害准确性的情况下实现更加公平的结果。
Mar, 2024