高效公平排名的可解释性差异补偿
本文提出了一种能够同时解决学习算法固有的和训练数据中的算法和应用中置入偏见的公平性问题的排序方法,采用一类延迟策略梯度方法,即采用公平度量的代价函数,并针对所需的应用程序选择一类的 “平均公平度量” 选择公平度量,有效地使学习算法能够处理包含偏差和噪声的数据,并通过对算法进行实证研究证明其能够获得准确而公平的排序策略。
Nov, 2019
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
本文研究了现有的选集算法在增加历史劣势群体代表性或整体提高代表性时所引发的群体内不公平问题,并通过整数线性规划引入额外约束来平衡群体内公平性和整体性能之间的可行性权衡。
Jun, 2019
机器学习算法在受保护群体上可能存在不公平影响。为解决此问题,我们开发了贝叶斯最优公平分类的方法,旨在在给定的群体公平约束条件下最小化分类错误。我们介绍了线性差异度量的概念,这些度量是概率分类器的线性函数;以及双线性差异度量,这些度量也是群体回归函数的线性函数。我们证明了几种流行的差异度量 - 从人口统计平衡、机会平等到预测平等的偏离 - 都是双线性的。我们通过在单一线性差异度量下揭示与 Neyman-Pearson 引理的联系,找到了贝叶斯最优公平分类器的形式。对于双线性差异度量,贝叶斯最优公平分类器变为群体阈值规则。我们的方法还可以处理多个公平性约束(如均衡的几率)以及在预测阶段无法使用受保护属性的常见情况。借助我们的理论结果,我们设计了在双线性差异约束下学习公平贝叶斯最优分类器的方法。我们的方法涵盖了三种流行的公平感知分类方法,包括预处理(公平上采样和下采样),进行中处理(公平成本敏感分类)和后处理(公平插件规则)。我们的方法在实现直接控制差异的同时,实现了接近最优的公平性和准确性权衡。实验证明,我们的方法比现有算法更可取。
Feb, 2024
本文对过去几年来有关将公平性要求纳入算法排名器的工作进行了系统概述,提供了跨学科的算法形式化和方法连接的广阔视角,并针对公平性增强干预分类架构描述了四个分类框架,并讨论了公平排序评估数据集和技术工作。我们还讨论了公平分数排序和公平学习排序的评估框架,并得出了有关公平排名方法评估的一系列建议。
Mar, 2021
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019