单调个体公平性
研究了一种在线分类问题,其中个体按固定但未知的分布一个接一个地到达,并必须被分类为积极或消极,算法只有在他们获得正分类时才会观察到个体的真实标签。该设置捕捉到许多分类问题,要求算法满足公平性约束.
Feb, 2019
本研究提出一种基于个体和统计概念的新公平性定义族,设计了一种可以访问任何标准公平性无关的学习启发式算法的神谕有效算法,用于公平经验风险最小化任务,并且通过实验证明了其效果。
May, 2019
提出了一种基于人类判断的 “个体公正” 近似度量的解决方案,该模型假定我们可以获得人类的公正裁决者,其可以回答关于特定任务的个体相似性的有限一组查询,该模型包括相关的度量逼近定义,逼近构造和学习程序。
Jun, 2019
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
在机器学习中,通过使用受保护的属性定义的结构化函数类来提议一种新的公平统计定义,从而语义上定义了指数级(或无限个)子组内的统计不变性,并证明了公平子组审核的计算问题与弱自适应学习问题等价,提出了两种算法,证明了这些算法在解决自治学习问题的情况下可以收敛,其中第二种方法具有简单和更快的步骤计算的优点。
Nov, 2017
提出了一种新的在线元学习算法 FFML, 该算法能够在保证分类准确性的同时,学习与公平相连的模型参数。通过在三个真实世界数据集上进行实验,得到了具有显著优越性能的结果。
Aug, 2021
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019