我们提出了 FairGBM,这是一种用于在公平约束下训练 GBDT 的双升学习框架,其对预测性能的影响很小,同时提出了平滑的凸误差率代理。
Sep, 2022
本研究提出了一种新的对抗性梯度树提升方法用于公平分类,并在多个数据集上进行实证评估,通过使用一组不同的公平定义来衡量公平性,证明了该方法在精度相同的情况下取得了更高的公平性。
Nov, 2019
本研究提出了一种名为 FairGrad 的方法,实现了对一个群体内部的公平性。通过可迭代地学习基于群体权重的重新加权方案,FairGrad 可以很容易地实现,并可以适用于各种标准公平性定义,同时在各种数据集上都取得了可比较的成果。
Jun, 2022
研究机器学习如何处理公平性和防止基于敏感属性的预测性歧视问题,并提出一种名为 AdaFair 的基于 AdaBoost 分类器的方法,该方法显式地处理类别不平衡并在维持分类准确性的同时优化公平性,实验证明其在平衡错误方面比现有的公平性方法表现显著好 25%。
Sep, 2019
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
本研究提出了两种简单的方法,从多种数据类型中学习公平指标,经实验证明使用学习到的指标进行公平训练可以在三种机器学习任务中有效减少性别和种族偏见,同时也提供了关于统计性能的理论保证。
Jun, 2020
我们考虑培训机器学习模型,使其在输入的某些敏感扰动下表现不变的公平性,这种公平性的形式化表述为个体公平性的一种变体,并使用分布鲁棒优化方法在训练期间强制执行。我们还展示了该方法在两个容易受到性别和种族偏见影响的机器学习任务上的有效性。
Jun, 2019
本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
Jun, 2018
本文提出了一种新的机器学习框架,旨在为实现公正和准确性而学习分组,从而减少 ML 模型在特定人群中的偏见和歧视,并在各种数据集上实现了最新技术的改进。
Apr, 2023
研究机器学习算法如何实现公平性是机器学习中一个重要的领域。为了在构建机器学习系统时考虑公平性,这篇文章提出了一种新的公平性模型,即在具有审查制度的情况下进行个体公平性学习,探索了缺乏类标签前提条件的情况下如何对待相似的个体并减少歧视。本文在三个真实世界的数据集上验证了该方法的卓越表现,既能最小化歧视,又能保持预测性能。
Feb, 2023