通过后处理预测器实现公平且最优分类
我们提出了一个后处理算法来进行公平分类,通过统一的族群公平度量准则,包括统计平衡、平等机会和平衡赔率,来减轻模型偏差,适用于多类问题和具有属性感知和属性盲的设置。通过使用 “公平代价” 来重新校准给定基准模型的输出分数,它通过线性组合(预测的)群体成员身份来实现公平性。我们的算法是基于一种表达结果的表示方法,该结果表明最优公平分类器可以通过线性后处理损失函数和群体预测器来表示,这是通过将它们用作足够统计量,将公平分类问题重新形式化为线性规划问题来推导出来的。通过解决经验线性规划来估计后处理器的参数。对基准数据集上的实验证明了我们的算法与现有算法相比在减小差异方面的效率和有效性,特别是在更大的问题上。
May, 2024
在群体公平约束下考虑了二元分类问题,通过引入一种新的偏见量度,称为偏见分数,提出了贝叶斯最优分类器的显式特征,并基于该特征开发了一种满足公平约束且保持高准确率的事后方法。该方法在 Adult、COMPAS 和 CelebA 数据集上与内处理和事后处理方法相比性能竞争力更好,不同于大多数事后处理方法,我们在推断时不需要访问敏感属性。
Oct, 2023
机器学习算法在受保护群体上可能存在不公平影响。为解决此问题,我们开发了贝叶斯最优公平分类的方法,旨在在给定的群体公平约束条件下最小化分类错误。我们介绍了线性差异度量的概念,这些度量是概率分类器的线性函数;以及双线性差异度量,这些度量也是群体回归函数的线性函数。我们证明了几种流行的差异度量 - 从人口统计平衡、机会平等到预测平等的偏离 - 都是双线性的。我们通过在单一线性差异度量下揭示与 Neyman-Pearson 引理的联系,找到了贝叶斯最优公平分类器的形式。对于双线性差异度量,贝叶斯最优公平分类器变为群体阈值规则。我们的方法还可以处理多个公平性约束(如均衡的几率)以及在预测阶段无法使用受保护属性的常见情况。借助我们的理论结果,我们设计了在双线性差异约束下学习公平贝叶斯最优分类器的方法。我们的方法涵盖了三种流行的公平感知分类方法,包括预处理(公平上采样和下采样),进行中处理(公平成本敏感分类)和后处理(公平插件规则)。我们的方法在实现直接控制差异的同时,实现了接近最优的公平性和准确性权衡。实验证明,我们的方法比现有算法更可取。
Feb, 2024
控制统计机器学习方法的不公平影响是确保公平性的关键。本文探讨了具有两个受保护群体的公平二分类的统计基础,重点是控制人口统计差异,并提出了一种量化公平性约束影响的新方法。
Mar, 2024
本文提出一种用于多任务学习的算法公平性方法,该方法通过使用多项 Wasserstein barycenter 扩展 “Strong Demographic Parity” 的定义,为具有回归和二分类任务的多任务学习器提供了封闭形式解决方案,并应用于合成和现实数据集上以展示其在促进公平决策方面的实际价值。
Jun, 2023
该研究提出了一种差分隐私的后处理算法,用于学习满足统计平等的公平回归器,解决了机器学习模型在敏感数据上训练时的隐私问题和其传播历史偏见的公平问题,并提供了算法的样本复杂性和公平性保证,揭示了在直方图中选择的箱数的选择对于统计偏倚和方差之间的权衡,其中使用较少的箱数总是以错误为代价倾向于公平性。
May, 2024
本文考虑了在多分类情况下实现公平性的问题,并对基于后处理方法的方法进行了扩展,以实现机器学习分类器的公平性,我们通过系统性的合成实验探讨了该方法何时产生公平和准确的预测,同时在几个公开可用的真实世界应用数据集上评估了有所歧视的公平性权衡。 我们发现,总体上,我们的方法在数据集中的个体数量相对于类别和受保护组的数量较高时,其产生的精度下降微不足道,且强制实施公平。
Jan, 2022
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
通过公平回归和最优输运理论的联系,得到一种最优公平的预测器,并建议了一个简单的后处理算法来实现公平。这个结果提出了最优公平预测的直观解释,并为这个过程建立了风险和无分布的公平保证。
Jun, 2020