该研究论文对多个受保护属性的公平性改进进行了广泛研究,涵盖了 11 种最先进的公平性改进方法。结果显示,针对单个受保护属性改进公平性会大幅降低对未考虑的受保护属性的公平性。此外,在处理多个受保护属性时,精确率和召回率的影响是单个属性的 5 倍和 8 倍,在以准确性作为机器学习性能指标的将来公平性研究中,这有重要的影响。
Jul, 2023
在有限的受保护属性标签访问情况下,本文开发了测量和减少公平违规的方法,提出了估计现有模型的常见公平度量和解决约束非凸优化问题以限制公平违规的模型训练技术,并且相比其他受限受保护属性的公平优化方法,在减小公平度的同时减少了公平性和准确性的权衡。
Oct, 2023
研究表明,要确保模型开发人员无法通过查询公平度量来了解个体的受保护属性,提出了一个新技术 Attribute-Conceal 来实现差分隐私,避免了普通机制的局限性。
Nov, 2022
本文提出了一种公平度量方法,通过迭代式基于网格的启发式算法来校准敏感属性值的结果,实现对保护属性值的公平。在多个受保护属性值的情况下,通过对欺诈检测进行研究,证明所提出的启发式算法能够实现公平。与现有的公平技术相比,该算法在多个公开数据集上的性能表现相当。
Jul, 2022
通过建模特征交互来检测相关属性以减轻偏见影响的无假设框架,大大减轻了机器学习模型中针对特定人群的歧视和不公平预测行为。
这篇论文探讨了在自然语言处理模型中的偏差对模型的影响,提出了针对多个保护属性进行评估的自动去偏差技术,并研究了一个新的有偏约束模型及其扩展版本的迭代零空间投影技术。
Sep, 2021
数据收集中的历史性歧视对弱势群体和个体产生了影响。现有的公平机器学习研究主要致力于减轻模型预测中的歧视倾向,但对于如何追踪数据中存在的偏见却付出了较少的努力,尽管这对公平机器学习的透明度和可解释性非常重要。为了填补这一空白,我们研究了一个新的问题:发现在训练数据中反映偏见 / 偏见的样本。基于现有的公平性概念,我们提出了一个样本偏见准则,并提出了衡量和抵消样本偏见的实用算法。得出的偏见分数提供了历史偏见在数据中的直观样本级归因和说明。在此基础上,我们通过基于样本偏见的最小数据编辑设计了两种公平机器学习策略。它们可以在最小或零的预测效用损失的情况下,减轻群体和个体的不公平现象。对多个真实世界数据集的大量实验和分析证明了我们方法在解释和减轻不公平方面的有效性。代码可在此 URL 获取:https://URL
Jun, 2024
本文概述了应用于公平感知机器学习中的真实世界数据集,并使用贝叶斯网络分析数据特征之间的关系,进一步进行了探索性分析。
Oct, 2021
该研究对机器学习分类器的 17 种生动代表性偏差缓解方法进行了综合性的实证研究,在 8 种广泛采用的软件决策任务中应用了 11 种 ML 性能度量(例如,准确性)、4 种公平度量以及 20 种公平 - 性能权衡评估。在分析过程中,作者发现,无法在所有情境下达到最佳公平 - 性能平衡。
本篇论文对机器学习模型中的偏差缓解方法进行了全面调查,收集了 341 篇有关偏差缓解的出版物,并对它们进行了评估,提供了支持从业人员在开发和评估新的偏差缓解方法时做出明智选择的见解。