本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
在数据稀缺环境中,通过结合后验采样和公平分类子程序的创新主动学习框架,我们有效地提高了模型准确性并满足公平约束,证明了该方法在最大限度利用少量标注数据时的有效性,并对已有方法进行了改进。
Dec, 2023
针对排名中的公平性问题,我们提出一种基于分配式最小最大公平理论的算法,旨在通过随机化策略,尽可能地减少个体不公平带来的损失,并确保在满足给定群体公平性约束的同时,能够使尽可能多的个体获得最大的收益。
Jun, 2021
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019
本研究提出了一种基于主动框架的公平分类方法,通过根据不同群体或个体的需求自适应获取信息来平衡分类性能差异,证明了该方法可以显著优于基于随机化的分类器。
Sep, 2018
通过提出一种新颖的自适应重新加权方法,该论文旨在消除训练和测试数据之间分布变化对模型普适能力的影响,进而改善算法的公平性和泛化性能。实验证明了该方法在准确性和公平性度量方面的普适性,并突出了对语言和视觉模型公平性改善的性能提升。
Sep, 2023
本研究将群体公平性形式化为一个多目标优化问题,并提出一种公平性标准和优化算法,在深度神经网络上进行测试并展示如何减少最坏情况下的分类错误。
本文提出了一种使用非参数方法、连续监控、基于概率策略和适应分布变化等特征的公平性审计方法,并在多个基准公平性数据集上验证其有效性。
May, 2023
本研究提出了一种名为 FairGrad 的方法,实现了对一个群体内部的公平性。通过可迭代地学习基于群体权重的重新加权方案,FairGrad 可以很容易地实现,并可以适用于各种标准公平性定义,同时在各种数据集上都取得了可比较的成果。
Jun, 2022
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018