本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
本研究提出一种利用反事实推理揭示机器学习和去偏见模型不公平行为的方法,在三个不同数据集上获得验证。
Feb, 2023
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
Jul, 2023
本研究通过反事实思考,提出一种针对 ML 软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了 ML 软件的公平性并保持了高竞争力性能
本文指出过度使用对社会类别(如种族或性别)进行因果推断所需的反事实可能导致一些困扰,并可能导致错误结论的结果,因此应该谨慎使用因果反事实,特别是在涉及高风险领域的算法公平和社交解释方面。
Feb, 2021
本文提出了两个算法,通过因果模型和反事实决策来实现公平的机器学习预测器,以实现提供平等机会和重修历史劣势。在包括招生、收入、信用和再犯等领域的数据集上进行评估与权衡,结果表明这些预测器在理论上达到了预测性能的最优,同时满足公平性。
May, 2019
在这项研究中,我们提出了一种使用所有可用特征进行训练的新算法,从理论和实证方面证明了使用该方法训练的模型能够满足 Counterfactual Fairness。
Nov, 2023
本文提出了针对算法风险评估工具的反事实度量方法,并使用双重稳健估计方法估算反事实度量。作者提出的度量方法更适合在决策上下文中使用;因此,纵观标准公平度量和反事实度量,两者仅在特定条件下才能同时成立,本文提供了理论结果和实证结果以证明他们的方法优于标准做法。
Aug, 2019
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
Oct, 2023