学习可控的公平表征
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
利用在表示学习过程中引入可解释的 “先验知识”,我们提出了一个学习可解释公平表达的通用框架,并在 ColorMNIST 和 Dsprite 数据集上进行实验证明,在下游分类任务中,与最先进的公平表达相比,我们的表达不仅可解释,而且准确性稍高且结果更公平。
Jun, 2024
本文提出了一种名为 DualFair 的自我监督模型,可从学到的表示中去除诸如性别和种族等敏感属性的偏差,同时优化两个公平标准,团体公平性和反事实公平性,为团体和个体提供更公平的预测,针对多个数据集进行了详细的分析,表明了该模型的有效性和进一步展示了同时解决两种公平标准的协同效应,同时建议该模型在公平的智能 Web 应用中具有潜在价值。
Mar, 2023
本文提出了一种数据之间的翻译方法,实现了图像或表格数据的公平性,有效避免保护特征的语义性对公平性造成的影响,并在实际数据集面对性别这一保护特征时表现出了很好的机会平等性。
Oct, 2018
本文提出了一种新颖的分离方法来解决不变表示的问题,通过正交约束作为独立的代理来将有意义和敏感表示分离,并通过熵最大化来明确地强制有意义的表示对敏感信息不可知。该方法在公开的数据集上进行了评估,并将其与最先进的方法进行了比较,证明其在处理公平性和不变性方面具有最先进的性能。
Mar, 2020
本文提出了一种新的变分方法来学习私有和 / 或公平的表示,该方法基于一个新的隐私和公平优化问题的拉格朗日形式,并展示了保持所需信息水平的数据表示,并在最小化保留信息的同时控制效用与隐私或公平平衡的相似之处和可行性。该方法可舒适地纳入常见的表示学习算法,如 VAE、β-VAE、VIB 或非线性 IB 等。
Jun, 2020