利用公平性来增强敏感属性的重建
本文提出了一种基于概率生成模型的方法,通过在采用了多种形式的相关特征的训练数据中有效地估计敏感属性信息,从而提高公平模型的学习率。实际测试表明了该方法的准确性和公平性。
Mar, 2022
介绍了如何通过安全多方计算的方法,加密敏感属性,学习一个基于结果的公平模型,而无需揭示个人敏感信息,从而避免种族或性别等敏感属性对机器学习模型造成的不公平问题。
Jun, 2018
本文提出了在机器学习半私密设置中进行公平分类的新框架 FairSP,该框架可以借助少量的干净敏感属性来纠正嘈杂的敏感属性,然后通过对抗的方式,共同模拟已经校正的和干净的数据,以实现去偏差和预测,并证明该模型可以保证当大多数敏感属性是私密时的公平性。
Jul, 2022
本文研究通过对抗训练神经网络来消除敏感属性信息从而实现分类器 “公平” 的方法。发现只需要少量数据即可训练出具有公平性的分类器,并且数据分布影响对手的公平概念。
Jul, 2017
我们提出了分布鲁棒的公平优化(DRFO)方法,通过最小化所有潜在概率分布中最坏情况下的不公平性,而不是重建后的敏感属性的概率分布,来确保在只有有限敏感属性可获取的情况下,推荐系统中的公平性。
May, 2024
该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
Feb, 2023
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019
本文提出了一种基于代理属性与敏感属性的公平性框架,通过梯度解释找到模型关注点,再利用它们来指导下游任务模型的训练,以实现公平性和效用之间的平衡。实验证明,我们的框架在非分离和分离表示学习方法上具有更好的公平性 - 精度平衡。
May, 2023
利用神经网络以简单的随机采样器对敏感属性进行学习的公平惩罚措施,旨在实现非歧视性监督学习。与现有的许多方法相比,该惩罚能够处理多种格式的敏感属性,因此在实践中更具广泛适用性。实证证据表明,我们的框架在流行的基准数据集上的效用和公平性度量优于竞争方法。我们还在理论上表征了所提出的神经网络惩罚风险最小化问题的估计误差和效用损失。
Nov, 2023
本文探讨了在缺少敏感属性的情况下,利用类似领域中的辅助信息来提高目标领域中的公正分类的可行性, 并提出了一种既能学习到目标领域中的公正分类器,又能估计敏感属性的新框架,实验结果表明其有效性。
Jun, 2022