防止演化数据流中的歧视性决策制定
提出了一种名为 FairSFS 的新型算法,用于公平流式特征选择,以在不妨碍在线数据处理能力的前提下,解决当前流式特征选择算法在管理偏见和避免歧视方面的不足,避免了敏感属性相关数据的传播,并体现了不输于领先的流式特征选择方法和现有公平特征技术的准确性和公平度的显著提高。
Jun, 2024
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
数据收集中的历史性歧视对弱势群体和个体产生了影响。现有的公平机器学习研究主要致力于减轻模型预测中的歧视倾向,但对于如何追踪数据中存在的偏见却付出了较少的努力,尽管这对公平机器学习的透明度和可解释性非常重要。为了填补这一空白,我们研究了一个新的问题:发现在训练数据中反映偏见 / 偏见的样本。基于现有的公平性概念,我们提出了一个样本偏见准则,并提出了衡量和抵消样本偏见的实用算法。得出的偏见分数提供了历史偏见在数据中的直观样本级归因和说明。在此基础上,我们通过基于样本偏见的最小数据编辑设计了两种公平机器学习策略。它们可以在最小或零的预测效用损失的情况下,减轻群体和个体的不公平现象。对多个真实世界数据集的大量实验和分析证明了我们方法在解释和减轻不公平方面的有效性。代码可在此 URL 获取:https://URL
Jun, 2024
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。
Jan, 2024
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
本研究拟定了 Fair-SMOTE 算法以解决自主决策中可能存在的偏见以及带来的问题,通过消除偏见标签、平衡内部分布使得基于敏感属性的示例在正负两类中均等地分布,从而提高了性能表现,并被证实是一种成功的偏差缓解方法。
May, 2021
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
研究公平机器学习时,为达到公平,可以通过在不同群体之间平衡度量指标,并研究历史偏见对数据集的影响,然而在训练有偏倚策略的数据时,可能会导致调整后的预测器在目标人群中并不公平,从而引起剩余不公平。 使用样本重新加权来估算和调整公平度量标准,以制定出更公平的机器学习算法。
Jun, 2018