利用有限标注减轻算法偏差
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
介绍了一种新的开源Python工具包- AI Fairness 360 (AIF360),用于支持决策性应用程序的算法公平性,该工具包包括公平度量标准、算法对数据集和模型执行偏差检测和修复以及参考指南和教程。
Oct, 2018
本文通過創建因果貝葉斯知識圖,對機器學習模型中的歷史數據中現有的偏見進行了發現,提出了一種新的基於風險差的算法,以量化每個受保護變量在圖中的歧視影響力,以及一種快速適應的偏差控制方法,在元學習中高效地減少了組的不公平性,最終在合成和實際數據集上進行了廣泛實驗,證明了我們提出的不公平發現和防治方法可以高效地檢測偏見並減輕模型輸出上的偏見以及對訓練樣本量少的未見任務的精度和公平度的泛化。
Sep, 2020
本文研究使用基于不确定性的主动学习启发式方法(如BALD)训练的模型是否比使用独立同分布(i.i.d.)采样训练的模型在决策中对受保护类别具有更高的预测平等性,并探讨了算法公平性方法(如GRAD和BALD)的交互作用,表明在大多数基准和度量标准上交互作用进一步提高了结果。
Apr, 2021
该研究提出了一种基于预测敏感性的方案,用于对已部署的分类器进行持续审计,以识别反对事实上的公正性。该方案不需要保护状态信息的预测时间,可以利用保护状态和其他特征之间的相关性,并展示了该方法有效检测反对事实上公正性的违规情况。
Feb, 2022
本文考虑了机器学习中可推广的偏见缓解技术的需求,由于对公平性和歧视的担忧,这些技术在数据驱动的决策过程中得到了各个行业的应用。尽管许多现有的机器学习偏见缓解方法在特定情况下取得了成功,但它们常常缺乏可推广性,不能轻松地应用于不同的数据类型或模型。此外,准确性与公平性之间的权衡仍然是该领域的一种根本张力。为了解决这些问题,我们提出了一种基于多任务学习的偏见缓解方法,利用了多目标优化中的Monte-Carlo dropout和Pareto优势的概念。该方法在不使用敏感信息的情况下同时优化准确性和公平性,提高了模型的可解释性。我们在来自不同领域的三个数据集上测试了这种方法,并展示了它如何提供模型公平性和性能之间的最理想权衡。这使得我们能够在特定领域进行调优,其中一个指标可能比另一个更重要。通过我们在本文中介绍的框架,我们旨在增强公平性和性能之间的权衡,并为机器学习中偏见缓解方法的可推广性问题提供一个解决方案。
Apr, 2024
数据收集中的历史性歧视对弱势群体和个体产生了影响。现有的公平机器学习研究主要致力于减轻模型预测中的歧视倾向,但对于如何追踪数据中存在的偏见却付出了较少的努力,尽管这对公平机器学习的透明度和可解释性非常重要。为了填补这一空白,我们研究了一个新的问题:发现在训练数据中反映偏见/偏见的样本。基于现有的公平性概念,我们提出了一个样本偏见准则,并提出了衡量和抵消样本偏见的实用算法。得出的偏见分数提供了历史偏见在数据中的直观样本级归因和说明。在此基础上,我们通过基于样本偏见的最小数据编辑设计了两种公平机器学习策略。它们可以在最小或零的预测效用损失的情况下,减轻群体和个体的不公平现象。对多个真实世界数据集的大量实验和分析证明了我们方法在解释和减轻不公平方面的有效性。代码可在此URL获取:https://URL
Jun, 2024