不完美群体信息下的均等准确率后处理
提出了一种灵活的预测模型学习框架,可近似满足平等赔率公平性概念,采用差异性函数作为参数惩罚项并引入形式假设检验方法来检测预测是否违反平等赔率公平性,同时提供了平等不确定性量化技术来以精确术语传达数据分析结果。
Jun, 2020
研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018
通过构建受其 Lipschitz 约束的群体阈值之间的连续概率函数,来实现组公平和个体公平,同时保留了模型的预测能力和鲁棒性,解决了使用不连续的概率函数进行校准时组和个体公平冲突的问题,同时避免了个人的赔率失衡问题。
Apr, 2023
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
通过结合对抗学习和一种新颖的逆条件排列,我们介绍了一种公平学习方法,有效且灵活地处理多个敏感属性,可能包含不同数据类型,从而填补了当前研究中专注于单个敏感属性违反平衡几率的空白。通过模拟研究和对真实数据集的实证分析,我们展示了该方法的功效和灵活性。
Apr, 2024
研究二进制决策制定分类器在存在不完美信息的情况下的流行方法是首先建立非二进制的 “评分” 分类器,该分类器在所有受保护的组中进行了校准,然后对该分数进行后处理以获得二进制决策。我们研究通过后处理校准分数实现各种公平性属性的可行性,然后表明推迟后处理器可以使更多的公平条件在最终决策上得以保持。
Oct, 2018
在群体公平约束下考虑了二元分类问题,通过引入一种新的偏见量度,称为偏见分数,提出了贝叶斯最优分类器的显式特征,并基于该特征开发了一种满足公平约束且保持高准确率的事后方法。该方法在 Adult、COMPAS 和 CelebA 数据集上与内处理和事后处理方法相比性能竞争力更好,不同于大多数事后处理方法,我们在推断时不需要访问敏感属性。
Oct, 2023
我们提出了一个后处理算法来进行公平分类,通过统一的族群公平度量准则,包括统计平衡、平等机会和平衡赔率,来减轻模型偏差,适用于多类问题和具有属性感知和属性盲的设置。通过使用 “公平代价” 来重新校准给定基准模型的输出分数,它通过线性组合(预测的)群体成员身份来实现公平性。我们的算法是基于一种表达结果的表示方法,该结果表明最优公平分类器可以通过线性后处理损失函数和群体预测器来表示,这是通过将它们用作足够统计量,将公平分类问题重新形式化为线性规划问题来推导出来的。通过解决经验线性规划来估计后处理器的参数。对基准数据集上的实验证明了我们的算法与现有算法相比在减小差异方面的效率和有效性,特别是在更大的问题上。
May, 2024
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本文研究在具有全知对手的情况下的公平分类问题,在此情况下对于一个给定的参数 η,对手可以随意选择任意 η 分数的训练样本并随意扰动它们的保护属性。我们提出了一种优化框架来学习这种对抗情况下的公平分类器,并具有可证明的准确性和公平性保证。
Jun, 2021