本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
在这项研究中,我们提出了一种使用所有可用特征进行训练的新算法,从理论和实证方面证明了使用该方法训练的模型能够满足 Counterfactual Fairness。
Nov, 2023
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
本研究提出一种利用反事实推理揭示机器学习和去偏见模型不公平行为的方法,在三个不同数据集上获得验证。
Feb, 2023
本研究通过反事实思考,提出一种针对 ML 软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了 ML 软件的公平性并保持了高竞争力性能
该研究论文探讨了即使在没有敏感特征的情况下,机器学习模型仍可能存在歧视偏见的问题,并提出了利用反事实推理揭示模型潜在偏见的方法。
本文指出过度使用对社会类别(如种族或性别)进行因果推断所需的反事实可能导致一些困扰,并可能导致错误结论的结果,因此应该谨慎使用因果反事实,特别是在涉及高风险领域的算法公平和社交解释方面。
Feb, 2021
在复杂情景中,针对敏感因素同时影响公平和不公平决策的情境下,本文提出了采用因果学方法来消除不公平路径效应的模型,并利用深度学习和近似推理实现了一个广泛适用于复杂非线性场景的解决方案。
Feb, 2018
本文提出了一种基于因果关系的公平异常检测框架 CFAD,它的目标是确保在事实世界和反事实世界中,同一人属于不同组时检测结果相同。实验结果表明 CFAD 能够有效地检测异常并确保因果公平性。
Mar, 2023