自适应优先权重新加权以提高公平性泛化
通过对抗再加权方法来解决机器学习中的表征偏差,平衡数据分布以减少对少数群体的不公正对待,从而提高分类准确性和公平性。
Nov, 2023
通过采用两个神经网络,其中一个反映了因果图的结构,另一个反映了干预图的结构,该研究提出了一种改进数据集的重新加权方法,以实现因果公平性,并在实验中证明了其有效性。
Nov, 2023
本文提出了一种名为 FairReprogram 的通用公平学习范式,旨在消除机器学习模型中存在的人口统计偏差问题,该方法通过在输入数据中追加多组扰动向量,使得机器学习模型无法准确获取输入数据的真实信息从而达到公平的目标。实验证明此方法显著有效,并且效果比现有的基于重新训练权值的方法要好。
Sep, 2022
这篇研究论文系统地研究了对传统机器学习模型中重新加权样本的有效性,通过对 Adult Income 和 COMPUS 数据集上的五个模型进行二分类,并使用五个公平度量评估预测结果,揭示了实现传统机器学习模型公正性的重新加权样本的复杂性,以及偏倚动态的复杂性。
Dec, 2023
我们提出 Adversarially Reweighted Learning (ARL) 来解决机器学习(ML)公平性研究中的现实问题:如何在不知道保护组成员身份的情况下训练 ML 模型以提高公平性,我们的结果显示,ARL 可以提高 Rawlsian Max-Min 公平性,在多个数据集中最坏情况下保护组的 AUC 得分优于现有的最先进方法。
Jun, 2020
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF 可以在牺牲很少的模型实用性的情况下实现更好的公平性 - 实用性权衡。
Jan, 2022
研究机器学习如何处理公平性和防止基于敏感属性的预测性歧视问题,并提出一种名为 AdaFair 的基于 AdaBoost 分类器的方法,该方法显式地处理类别不平衡并在维持分类准确性的同时优化公平性,实验证明其在平衡错误方面比现有的公平性方法表现显著好 25%。
Sep, 2019
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
提出一种融合分布式鲁棒优化(DRO)框架和公平度量的基于迭代优化算法的方法,称为 FairDRO,通过自动产生正确的重新加权为每个组来最小化该方法,实验结果显示我们的方法在准确性公平交换上,相对于近期的强基线方法在多项基准数据集上表现出具有实现性和易适应性的状态表现。
Mar, 2023
提出了一种新颖的公平 AdaBoost(FAB)方法,通过公平感知的权重调整技术实现公平分类,并在维持 AdaBoost 的优势的同时,几乎不牺牲预测性能。在实际数据集上进行的实证结果表明,FAB 在公平性和准确性的权衡方面优于同类方法。
Jan, 2024