具有统计保证的参数公平性
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
本研究旨在通过条件人口失调性 (CDD) 的公平性定义来评估公平度量和公平约束,在欧盟非歧视法律框架下支持公平上下文方法,并进行了数据分析,发现 AI 辅助决策在法律角度上具有公平性,取决于具体情况和法律理由。
Jun, 2023
该论文研究了机器学习中的公平性问题,提出了在保持公平的前提下如何提高预测模型性能的方法,并且证明了最小误差率可以通过 Wasserstein 平均问题的最优值来计算,从而提出了一种简单的后处理方法来保证模型的公平性。
Nov, 2022
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
该论文通过优化社会福利功能(SWF)来评估各种公平性定义,探讨了广义社会公正观念是否对实现 AI 中的公平性有用,结果表明最优解可以在特定条件下证明人口平等或平等几率,但通常需要偏离这些平等类型。此外,预测率平衡的实用性有限,这些结果表明优化理论可以为如何在 AI 中实现群体公平性的讨论问题提供启示。
May, 2024
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
随着人工智能在影响人类和社会的决策中扮演越来越重要的角色,自动化决策系统的问责制越来越受到研究人员和从业者的关注。然而,在评估公平性方面,文献中存在着大量采用不同视角和假设的公平度量标准,这通常是不兼容的。本文提出了一个新的等混乱公平测试来检查自动化决策系统的公平性,并提出了一个新的混淆平等误差来量化任何不公平性的程度。通过对自动化决策系统 COMPAS 进行案例研究,证明了这里提供的测试、度量和事后分析的实用性。
Jul, 2023
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
May, 2019