稳健对数损失分类的公平性
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
通过使用现成的凸规划工具(如 CVXPY),本文提出了 ELminimizer 算法,通过将非凸优化问题转化为一系列凸优化问题,高效地找到满足等效损失约束条件下的全局最优公平预测器,并通过多个实证研究支持我们的理论结果。
Nov, 2023
提出了首个具有收敛保证的随机分布鲁棒公平性框架,不需要对因果图的了解,在分布转移的环境中将公平推断制定为 $L_p$ 范数不确定性集合下的分布鲁棒优化问题。
Sep, 2023
本文提出了一种使用 Wasserstein 距离构建概率分布空间球体,并在此基础上最小化包含了经典和常见正则化逻辑回归的最坏情况期望对数损失函数的鲁棒分布逻辑回归模型,同时使用基于 Wasserstein 球的分布鲁棒方法计算分类器误分类概率的置信度上下边界。
Sep, 2015
通过采用分布式鲁棒优化的方法,我们可以在不考虑特定群体身份的情况下控制少数群体的风险水平,从而避免了现有的经验风险最小化方法在时间推移中导致的表征偏差加剧。在一个真实的文本自动完成任务中,这种方法提高了少数群体用户的满意度。
Jun, 2018
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
本文提出了一种新颖的 min-max F-divergence 规则框架,通过两个可训练网络(分类器网络和偏差 / 公平估计器网络),使用统计概念中的 F-divergence 度量公平性,学习公平的分类模型,同时保持高准确率,可适用于多个敏感属性和高维数据集。该框架针对两种群体公平性限制进行 F-divergence 规则模式的研究,进行了一系列实验,结果显示该框架在准确性和公平性之间的平衡方面实现了最先进的性能。
Jun, 2023
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020