极小化帕累托公平性:一个多目标视角
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
本研究提出了一个新的公平定义,通过对敏感特征感兴趣的亚组的期望损失进行衡量,从而实现了通用的敏感特征以及凸性目标的结果。该目标是基于条件风险最小化构建的,这与数学金融中风险度量的丰富文献相关。
Jan, 2019
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
通过对 9 种方法公平指标改进的性能进行基准测试,我们发现,相对于实现群体公平的方法,实现最差群体表现的方法并不能胜任在临床设置中对分类器公平进行改进,这一结果证实了对于在数据生成功能机制中存在歧视的机理的调查在临床环境中仍然具有实用性。
Mar, 2022
本文提出了一种新的框架 ——α 交叉公平(Intersectional Fairness)框架,来解决交叉敏感群体的分类问题,提出了一种新的公平度量,并在实验中验证了该框架的有效性以及一些算法的有效性。
May, 2023
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019