协调预测和统计平等:因果方法
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
本文分析算法公正中的道德层面,提出统计公平准则(独立性)需要在不公正社会差异或测量误差引发预测特征差异的情况下实现,同时引证两个反例说明这一准则并不是普遍适用的。
Nov, 2020
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
过去十年来,计算机科学和哲学领域的文献提出了不同的算法公平标准。其中最受关注的分类平等要求预测算法的错误分类在由受保护特征定义的群体中以相等的频率发生。然而,分类平等面临批评。为了取得进展,我们转向一个相关原则,即平等保护,最初在刑事司法领域发展起来。平等保护的关键是将错误分类的风险 (在特定意义上) 均等化,而不是将错误分类的比例均等化。我们展示了平等保护避免了许多违反分类平等的反例,但在许多常见情景中未能模拟我们的道德直觉,例如,在预测器相对于受保护特征是因果下游时。为了解决这些困难,我们提出了一项新的原则,即因果平等保护,通过因果性的视角模拟了对错误分类风险的公正分配。
Feb, 2024
本研究旨在通过条件人口失调性 (CDD) 的公平性定义来评估公平度量和公平约束,在欧盟非歧视法律框架下支持公平上下文方法,并进行了数据分析,发现 AI 辅助决策在法律角度上具有公平性,取决于具体情况和法律理由。
Jun, 2023
本文提出了一种搜索疑似算法不公平因素的算法,不同于以往对于完整信息的处理,这个算法考虑了预测时的部分观测条件以及机器学习模型可能出现的疑似偏见,并引入了概率电路的概念,同时提供了一种基于抽样的方法来更有效地挖掘疑似偏见。
Dec, 2022
本研究在于确定机器学习模型应用在社会领域中哪种公平性定义最为合适,通过自适应实验发现,人们普遍倾向于使用最简单的数学公式 —— 人口平等来衡量公平性。
Feb, 2019
本研究探讨了在自动化数据驱动决策中存在的公平性问题,并基于账单分配和无嫉妒性理论,提出了一种基于偏好的公平性概念及采用可行的代理方法设计符合偏好公平性观念的分类器。 通过实验得出此偏好公平性相较于基于平等的公平性更加实用。
Jun, 2017