本文概述了应用于公平感知机器学习中的真实世界数据集,并使用贝叶斯网络分析数据特征之间的关系,进一步进行了探索性分析。
Oct, 2021
机器学习公平性经常导致准确率下降,我们提出了一种基于数据集的高效方法来逼近公平性 - 准确性权衡曲线,并通过引入置信区间来量化逼近的不确定性,从而为各种数据模态下的数据集特定公平决策提供了一种有原则的框架。
Feb, 2024
该研究介绍了 MEDFAIR 框架,可以用于医学成像机器学习模型的公平性评估和算法的基准测试,通过实验发现模型选择标准可以对公平性结果产生重要影响,并在不同的应用场景和伦理原则下提供了建议。
Oct, 2022
本篇研究通过开发公开基准来对不同的公平性增强算法进行比较,并发现许多公平性措施之间具有强烈的相关性,但这些措施也对数据集构成的波动敏感,这表明公平干预可能比以前认为的更脆弱。
Feb, 2018
通过重构 UCI Adult 数据集并衍生新的预测任务,本篇论文扩展现有的数据生态系统,为公平机器学习研究拓宽了数据来源,通过对新数据集的分析,研究者可以深入探讨公平性准则、算法干预的表现和分布变化的影响。
Aug, 2021
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
我们引入了一个面向工作推荐的公平感知数据集,设计用于促进算法公平在现实场景下的研究,解决了真实世界中的算法公平问题和隐私保护问题,涵盖了公平性和实用性之间的权衡挑战,并在实验评估中展示了公平性改进的潜力和与实用性之间的权衡。
Jul, 2024
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而减少开发时间和成本。
Jan, 2024
本文对过去几年来有关将公平性要求纳入算法排名器的工作进行了系统概述,提供了跨学科的算法形式化和方法连接的广阔视角,并针对公平性增强干预分类架构描述了四个分类框架,并讨论了公平排序评估数据集和技术工作。我们还讨论了公平分数排序和公平学习排序的评估框架,并得出了有关公平排名方法评估的一系列建议。
Mar, 2021
该论文提出了一个新的统一框架,利用深度分类模型对证明的公平性指标进行联合优化,适用于许多分类器,解决了现有方法无法建模精确公平性的问题。
Dec, 2020