研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018
本文提出了门槛不变的公平性的概念,通过两种近似方法来均衡不同群体之间的风险分布,实现了对机器学习模型公平性的提高。
Jun, 2020
提出了一种灵活的预测模型学习框架,可近似满足平等赔率公平性概念,采用差异性函数作为参数惩罚项并引入形式假设检验方法来检测预测是否违反平等赔率公平性,同时提供了平等不确定性量化技术来以精确术语传达数据分析结果。
本文研究了在只有保护属性的不完美信息的情况下,公平干预是否仍然可行。我们特别研究了 Hardt 等人(2016)的等化几率后处理方法,证明了在属性扰动的情况下,只要符合我们所确定的条件,即使运行等化几率,分类器的偏差也会降低。我们还研究了所得分类器的误差,并实证观察到,在我们确定的条件下,大多数情况下误差不会因保护属性的扰动而受到影响。
Jun, 2019
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
介绍了一种理论上遵循平衡公正(FIFA) 的灵活方法,以同时支持分类和公正的泛化,结合多种现有公正学习方法,为一些不平衡的数据集提供了更好的公正泛化。
Jun, 2022
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
讨论了公平性问题,使用条款对算法进行了不公平度的度量,使用公平变量定义更声公平的公平模型,并提出了可嵌入任何决策模型的可导出条件公平正则化器(DCFR)。