公正通过努力平等
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
本文提出了两个算法,通过因果模型和反事实决策来实现公平的机器学习预测器,以实现提供平等机会和重修历史劣势。在包括招生、收入、信用和再犯等领域的数据集上进行评估与权衡,结果表明这些预测器在理论上达到了预测性能的最优,同时满足公平性。
May, 2019
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
May, 2019
机器学习中关于公平性的一个重要问题是,即使使用标准的公平度量,公平也可能导致性能的下降(称之为 “下降调整”)。本文探讨了公平 ML 中下降调整的原因和普遍性,并根据平等和分配正义的哲学和法律理论,提出了将 “最低损害阈值” 或 “最小率约束” 作为公平性约束,通过设计 “提高水平” 的系统来促进实质性平等的第一步。
Feb, 2023
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024