学习公平表达的固有折衷
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
在监督和无监督公平机器学习中,公平分类和公平表示学习是两个重要问题。本文研究了在这两个问题中,随机化方法可以最小化由于公平约束引起的准确性损失,并提出了公平分类和公平表示的随机化解决方案,可以获得最优准确性且不引起准确性损失。
Jun, 2024
在处理敏感信息的应用程序中,数据限制可能会对机器学习(ML)分类器的可用数据施加限制,本文提出了一个框架,模拟了在四种实际情景下准确性和公平性之间的折衷,以确定在各种数据限制情况下,贝叶斯分类器的准确性受到的影响是如何的。
Mar, 2024
该论文研究了机器学习中的公平性问题,提出了在保持公平的前提下如何提高预测模型性能的方法,并且证明了最小误差率可以通过 Wasserstein 平均问题的最优值来计算,从而提出了一种简单的后处理方法来保证模型的公平性。
Nov, 2022
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
本论文通过信息论的方法,对机器学习中不变表示的准确性和不变性之间的最优权衡进行了分析,并提出了一种几何特征,可以限定或精确刻画分类和回归任务的准确性和不变性之间的 Pareto 最优边界。
Dec, 2020
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本研究讨论了关于算法分类的公正性的最近公众领域的讨论, 探讨了三种公平条件并证明除非在高度约束的特殊情况下,没有一种方法可以同时满足这三个条件,这些结果表明公正性的关键概念彼此不兼容,需要权衡其之间的关系。
Sep, 2016