该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
Feb, 2023
本文提出了在机器学习半私密设置中进行公平分类的新框架 FairSP,该框架可以借助少量的干净敏感属性来纠正嘈杂的敏感属性,然后通过对抗的方式,共同模拟已经校正的和干净的数据,以实现去偏差和预测,并证明该模型可以保证当大多数敏感属性是私密时的公平性。
Jul, 2022
学习公平分类器的方法是避免使用敏感属性的训练数据,在适当分布转移的数据集上进行传统训练可以同时减少公平差距上界和模型泛化误差,提高公平性和准确性。我们提出了一种可行的解决方案,通过采样有影响力的数据来在训练过程中逐步转移原始训练数据,其中新数据的敏感属性不会被访问或用于训练。对真实数据的大量实验验证了我们提出算法的有效性。
Feb, 2024
本篇论文提出了一种通用的重构校正方法,可以在满足用户定义的约束条件(如公平性信息)的同时最小化敌手的猜测的更改,并解决了黑盒访问目标模型的情况下反应了培训数据敏感属性的问题。
Sep, 2022
本文研究通过个人隐私保护的方式,实现对受保护属性的学习,在使用中不产生歧视,同时在受保护属性只在数据子集中存在的情况下,实现公平预测模型的学习。
Feb, 2020
通过建模特征交互来检测相关属性以减轻偏见影响的无假设框架,大大减轻了机器学习模型中针对特定人群的歧视和不公平预测行为。
Jul, 2023
介绍了如何通过安全多方计算的方法,加密敏感属性,学习一个基于结果的公平模型,而无需揭示个人敏感信息,从而避免种族或性别等敏感属性对机器学习模型造成的不公平问题。
Jun, 2018
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
本研究提出一种新算法,可以识别和处理潜在的歧视因素,确保机器学习模型的公平性,从而提高模型性能,实现非歧视分类和回归任务。
本文探讨了在缺少敏感属性的情况下,利用类似领域中的辅助信息来提高目标领域中的公正分类的可行性, 并提出了一种既能学习到目标领域中的公正分类器,又能估计敏感属性的新框架,实验结果表明其有效性。
Jun, 2022