基于因果贝叶斯网络的公平性观点
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文从贝叶斯公平的角度探讨了在决策中如何解决模型不确定性带来的不公平问题,并介绍了将参数不确定性纳入机器学习公平性的新概念。结合 Kleinberg 等人提出的公平定义,研究表明贝叶斯公平能产生在高度不确定性下性能好的公平决策规则。
May, 2017
机器学习方法在临床决策中的重要性日益提升,因此解决公平性问题变得越来越迫切。尽管已经有很多工作致力于检测和改善算法偏见,但目前的方法存在缺陷和潜在危害。我们提出因果角度来研究算法偏见,强调数据集偏见的不同来源可能看起来相似,但需要采用截然不同的缓解策略。我们从盛行度、呈现度和注释差异三个因果偏见机制的角度进行分析。我们提供了一个实用的三步骤框架,用于思考医学影像公平性,支持开发安全和公正的 AI 预测模型。
Jul, 2023
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
Oct, 2019
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
通过先优先考虑不平等的来源来减轻其基本不合理性,本论文提出了一种公正边缘优先算法以及去偏见的生成数据分配模式,其基于代表数据生成过程的因果贝叶斯网络和结果不公平的敏感节点。
Jul, 2020
聚类算法可能无意中传播或加剧现有的不平等,导致不公正的表示或有偏见的决策。本文提出了一种聚类方法,该方法结合因果公平度量,以在无监督学习中提供更细致入微的公平方式。我们的方法使得可以指定应该最小化的因果公平度量,并使用已知具有不公平偏差的数据集证明了我们方法的功效。
Dec, 2023
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
本文介绍因果有向无环图作为公平性动态系统研究的一个统一框架,阐明了因果假设如何表达和操作,说明了计算干预数量的重要性,并说明了因果假设能够在已知环境动态的情况下进行模拟和在未知动态下进行干预估计,以实现对短期和长期结果的干预,无论是在群体还是个人的层面上。
Sep, 2019