本文研究了在只有保护属性的不完美信息的情况下,公平干预是否仍然可行。我们特别研究了 Hardt 等人(2016)的等化几率后处理方法,证明了在属性扰动的情况下,只要符合我们所确定的条件,即使运行等化几率,分类器的偏差也会降低。我们还研究了所得分类器的误差,并实证观察到,在我们确定的条件下,大多数情况下误差不会因保护属性的扰动而受到影响。
Jun, 2019
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
通过结合对抗学习和一种新颖的逆条件排列,我们介绍了一种公平学习方法,有效且灵活地处理多个敏感属性,可能包含不同数据类型,从而填补了当前研究中专注于单个敏感属性违反平衡几率的空白。通过模拟研究和对真实数据集的实证分析,我们展示了该方法的功效和灵活性。
Apr, 2024
为了保证数据驱动的推荐系统的公平使用,我们应该能够向决策者传达它们的不确定性。我们提出了一个操作方法,名为 equalized coverage,该方法通过提供严谨的分布自由覆盖保证,使构造预测间隔不带偏见。我们在真实数据上测试了所提出框架的适用性,证明 equalized coverage 构造的预测间隔是不带偏见的。
Aug, 2019
研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018
提出了一种具有不公平惩罚的分布鲁棒逻辑回归模型,可以使用 Wasserstein ball 来对分布不确定性进行建模以实现公平机会并提高公平性。
Jul, 2020
本文提出了门槛不变的公平性的概念,通过两种近似方法来均衡不同群体之间的风险分布,实现了对机器学习模型公平性的提高。
Jun, 2020
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
利用神经网络以简单的随机采样器对敏感属性进行学习的公平惩罚措施,旨在实现非歧视性监督学习。与现有的许多方法相比,该惩罚能够处理多种格式的敏感属性,因此在实践中更具广泛适用性。实证证据表明,我们的框架在流行的基准数据集上的效用和公平性度量优于竞争方法。我们还在理论上表征了所提出的神经网络惩罚风险最小化问题的估计误差和效用损失。
Nov, 2023