AdaFair: 累积公平自适应提升算法
该研究提出了 AdaFair 算法,它可以有效地处理数据驱动的人工智能系统中的歧视问题,在平衡不足的情况下实现了性别、种族等保护属性的公平,同时保持预测性能。
Jan, 2022
提出了一种新颖的公平 AdaBoost(FAB)方法,通过公平感知的权重调整技术实现公平分类,并在维持 AdaBoost 的优势的同时,几乎不牺牲预测性能。在实际数据集上进行的实证结果表明,FAB 在公平性和准确性的权衡方面优于同类方法。
Jan, 2024
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
基于自动化决策的大数据和机器学习算法可能导致对某些受保护群体的歧视性决策。既有的公平感知机器学习方法关注于输入数据,学习算法或派生模型的前处理,中断处理或后处理。本文提出的 FAE(公平感知集成)框架结合了数据分析过程中前处理和后处理步骤中与公平相关的干预措施。
Feb, 2020
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
本文研究使用基于不确定性的主动学习启发式方法(如 BALD)训练的模型是否比使用独立同分布(i.i.d.)采样训练的模型在决策中对受保护类别具有更高的预测平等性,并探讨了算法公平性方法(如 GRAD 和 BALD)的交互作用,表明在大多数基准和度量标准上交互作用进一步提高了结果。
Apr, 2021
我们提出 Adversarially Reweighted Learning (ARL) 来解决机器学习(ML)公平性研究中的现实问题:如何在不知道保护组成员身份的情况下训练 ML 模型以提高公平性,我们的结果显示,ARL 可以提高 Rawlsian Max-Min 公平性,在多个数据集中最坏情况下保护组的 AUC 得分优于现有的最先进方法。
Jun, 2020