Equal Improvability: 一个考虑长期影响的新公平性概念
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
介绍了一种理论上遵循平衡公正(FIFA) 的灵活方法,以同时支持分类和公正的泛化,结合多种现有公正学习方法,为一些不平衡的数据集提供了更好的公正泛化。
Jun, 2022
本文提出了一种新的基于因果关系的公平判定方法:努力平等。与现有的公平概念不同的是,努力平等不仅关注于两个群体之间的决策差异,而且还帮助回答了当特定个体实现特定结果水平时应合理变化的合法性变量的程度,以及保护组和无保护组个体实现相同结果水平所做的努力是否不同等问题。研究团队开发了算法来确定在平等的努力方面是否存在歧视,并发展了一种基于优化的方法,用来消除数据中的歧视影响。而实验结果表明,与现有的公平概念相比,努力平等的算法更为有效。
Nov, 2019
通过结合对抗学习和一种新颖的逆条件排列,我们介绍了一种公平学习方法,有效且灵活地处理多个敏感属性,可能包含不同数据类型,从而填补了当前研究中专注于单个敏感属性违反平衡几率的空白。通过模拟研究和对真实数据集的实证分析,我们展示了该方法的功效和灵活性。
Apr, 2024
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
本研究介绍了 ELF 分类算法,通过考虑决策在人们的生活和福祉中所产生的长期影响,提供高可信的公平性保证,并证明了 ELF 返回不公平解决方案的概率小于用户指定的公差。同时我们的实验表明该算法能够成功地缓解长期的不公平现象。
Aug, 2022
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
通过引入一种名为 ELBERT-PO 的偏差缓解方法,我们在三个连续决策环境上的实验证明 ELBERT-PO 方法显著减少了偏差并保持了高效用性。
Sep, 2023