研究机器学习如何处理公平性和防止基于敏感属性的预测性歧视问题,并提出一种名为 AdaFair 的基于 AdaBoost 分类器的方法,该方法显式地处理类别不平衡并在维持分类准确性的同时优化公平性,实验证明其在平衡错误方面比现有的公平性方法表现显著好 25%。
Sep, 2019
提出了一种新颖的公平 AdaBoost(FAB)方法,通过公平感知的权重调整技术实现公平分类,并在维持 AdaBoost 的优势的同时,几乎不牺牲预测性能。在实际数据集上进行的实证结果表明,FAB 在公平性和准确性的权衡方面优于同类方法。
Jan, 2024
本研究提出了一种基于主动框架的公平分类方法,通过根据不同群体或个体的需求自适应获取信息来平衡分类性能差异,证明了该方法可以显著优于基于随机化的分类器。
Sep, 2018
文章提出了一种灵活的方法来提高人工智能系统的公平性,即针对不同族群的公正性问题,利用对抗性扰动来盲化输入数据中与公平性相关的特征,该方法有效且具有出色的性能。
Mar, 2022
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
基于自动化决策的大数据和机器学习算法可能导致对某些受保护群体的歧视性决策。既有的公平感知机器学习方法关注于输入数据,学习算法或派生模型的前处理,中断处理或后处理。本文提出的 FAE(公平感知集成)框架结合了数据分析过程中前处理和后处理步骤中与公平相关的干预措施。
Feb, 2020
本文研究使用基于不确定性的主动学习启发式方法(如 BALD)训练的模型是否比使用独立同分布(i.i.d.)采样训练的模型在决策中对受保护类别具有更高的预测平等性,并探讨了算法公平性方法(如 GRAD 和 BALD)的交互作用,表明在大多数基准和度量标准上交互作用进一步提高了结果。
Apr, 2021
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
为了保证医疗人工智能系统的公平性和对负责任,我们提出了一种对抗性多任务训练策略来同时减轻和检测基于深度学习的医学图像分析系统中的偏见。实验表明我们提出的方法具有较高的有效性。
Mar, 2021