FORML: 学习为公平性重新加权数据
提出了一种新的在线元学习算法 FFML, 该算法能够在保证分类准确性的同时,学习与公平相连的模型参数。通过在三个真实世界数据集上进行实验,得到了具有显著优越性能的结果。
Aug, 2021
使用多目标优化的方法直接优化错误 - 公平性权衡,并提出了一个灵活的框架来定义权重分类问题和多个代价函数,以减少优化参数,同时在真实问题中获得了更好的错误 / 公平性权衡解决方案。
Apr, 2023
本文提出了一种名为 FairReprogram 的通用公平学习范式,旨在消除机器学习模型中存在的人口统计偏差问题,该方法通过在输入数据中追加多组扰动向量,使得机器学习模型无法准确获取输入数据的真实信息从而达到公平的目标。实验证明此方法显著有效,并且效果比现有的基于重新训练权值的方法要好。
Sep, 2022
通过提出一种新颖的自适应重新加权方法,该论文旨在消除训练和测试数据之间分布变化对模型普适能力的影响,进而改善算法的公平性和泛化性能。实验证明了该方法在准确性和公平性度量方面的普适性,并突出了对语言和视觉模型公平性改善的性能提升。
Sep, 2023
提出一种融合分布式鲁棒优化(DRO)框架和公平度量的基于迭代优化算法的方法,称为 FairDRO,通过自动产生正确的重新加权为每个组来最小化该方法,实验结果显示我们的方法在准确性公平交换上,相对于近期的强基线方法在多项基准数据集上表现出具有实现性和易适应性的状态表现。
Mar, 2023
我们提出 Adversarially Reweighted Learning (ARL) 来解决机器学习(ML)公平性研究中的现实问题:如何在不知道保护组成员身份的情况下训练 ML 模型以提高公平性,我们的结果显示,ARL 可以提高 Rawlsian Max-Min 公平性,在多个数据集中最坏情况下保护组的 AUC 得分优于现有的最先进方法。
Jun, 2020
本文介绍了 fairml R 包,该包旨在通过经典统计模型和惩罚回归结果(岭回归)实现公平和可解释的机器学习模型,并提供模型估计,选择和验证功能,以及诊断图。
May, 2023
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF 可以在牺牲很少的模型实用性的情况下实现更好的公平性 - 实用性权衡。
Jan, 2022
该研究提出了一种基于元学习和梯度下降的新算法,来对训练样本进行权重分配,从而达到解决深度神经网络在训练集偏差和标签噪声方面的过度拟合问题,而不需要额外的超参数调整,并在少量有干净核准数据的情况下,实现了在类别不平衡和标签污染问题上的出色性能。
Mar, 2018
本文提出了一种针对不断变化的环境的公平在线学习框架 FairSAOML,通过添加长期公平性约束来构建新的遗憾度量 FairSAR 和新的自适应公平在线元学习算法,提高分布不一样时的性能,同时对累积公平性约束和损失遗憾度提供了亚线性的理论上限,实验结果表明本文提出的算法在不同的数据集和环境中均优于当前最佳的在线学习算法。
May, 2022