公平映射
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
本文提出了在机器学习半私密设置中进行公平分类的新框架 FairSP,该框架可以借助少量的干净敏感属性来纠正嘈杂的敏感属性,然后通过对抗的方式,共同模拟已经校正的和干净的数据,以实现去偏差和预测,并证明该模型可以保证当大多数敏感属性是私密时的公平性。
Jul, 2022
该研究使用生成对抗网络 (GANs) 生成面孔,发现在生成图像的过程中,训练数据中的偏见被放大。为了解决这个问题,提出了一种可解释的基准方法来平衡产生的面部属性,从而产生更平衡的数据。同时,该方法具有泛化能力来处理多个属性以及细分组的样本合成,进而用于量化商业人脸属性分类器和人脸超分辨率算法中的偏见。
Dec, 2020
本文提出了一种数据之间的翻译方法,实现了图像或表格数据的公平性,有效避免保护特征的语义性对公平性造成的影响,并在实际数据集面对性别这一保护特征时表现出了很好的机会平等性。
Oct, 2018
本篇论文提出了一种通用的重构校正方法,可以在满足用户定义的约束条件(如公平性信息)的同时最小化敌手的猜测的更改,并解决了黑盒访问目标模型的情况下反应了培训数据敏感属性的问题。
Sep, 2022
本文介绍了一种使用 GAN 生成图像并在潜在空间中扰动以生成可以平衡每个受保护属性的训练数据的方法,以缓解由相关性所引起的偏差,通过在原始数据集上增加扰动生成的数据,实证证明训练结果准确且具有许多定量和定性上的优势。在 CelebA 数据集上进行了全面评估和分析,与现有文献进行了比较。
Dec, 2020
该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
Feb, 2023
本文提出了一种基于概率生成模型的方法,通过在采用了多种形式的相关特征的训练数据中有效地估计敏感属性信息,从而提高公平模型的学习率。实际测试表明了该方法的准确性和公平性。
Mar, 2022
提出了一种名为 MAPPING 的新型模型无关的去偏框架,用于公平节点分类,其中采用了基于距离协方差 $dCov$ 的公平约束,同时减小了任意维度中的特征和拓扑偏差,并结合对抗去偏以限制属性推断攻击的风险。在不同的 GNN 变体的真实数据集上进行实验,证明了 MAPPING 的有效性和灵活性,结果显示 MAPPING 能够在效用与公平之间取得更好的权衡,并减轻敏感信息泄露的隐私风险。
Jan, 2024