本文提出了一种数据之间的翻译方法,实现了图像或表格数据的公平性,有效避免保护特征的语义性对公平性造成的影响,并在实际数据集面对性别这一保护特征时表现出了很好的机会平等性。
Oct, 2018
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
该研究论文探讨了学习表示方法和多个敏感属性之间实现群体和子群体公平性的方法,通过提出一种算法来实现紧凑立体的数据表示,该算法可以灵活地进行公平性调整,同时不需要使用敏感属性进行推理,拥有较好的分类效果。
Jun, 2019
通过分离表示的方式,研究了如何在敏感属性方面实现本地公平来实现公平分类,并在预测收入和再监禁率等真实场景下验证了该方法的优点。
May, 2022
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
本研究提出一种新算法,可以识别和处理潜在的歧视因素,确保机器学习模型的公平性,从而提高模型性能,实现非歧视分类和回归任务。
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018
本文介绍了一种基于代表函数的方法,证明了其可实现机器学习中的公平,适用于聚合模型,具有透明度和防止恶性激励的优势,并应用于金融和刑事司法数据集。
Oct, 2017