隐式路径对齐实现公平的表示学习
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
该研究论文探讨了学习表示方法和多个敏感属性之间实现群体和子群体公平性的方法,通过提出一种算法来实现紧凑立体的数据表示,该算法可以灵活地进行公平性调整,同时不需要使用敏感属性进行推理,拥有较好的分类效果。
Jun, 2019
本文提出了一种新的机器学习框架,旨在为实现公正和准确性而学习分组,从而减少 ML 模型在特定人群中的偏见和歧视,并在各种数据集上实现了最新技术的改进。
Apr, 2023
本文提出了一种名为 DualFair 的自我监督模型,可从学到的表示中去除诸如性别和种族等敏感属性的偏差,同时优化两个公平标准,团体公平性和反事实公平性,为团体和个体提供更公平的预测,针对多个数据集进行了详细的分析,表明了该模型的有效性和进一步展示了同时解决两种公平标准的协同效应,同时建议该模型在公平的智能 Web 应用中具有潜在价值。
Mar, 2023
利用信息论的有关发现,我们提出了一种新的端到端优化策略,该策略同时估计和最小化学习表示和数据属性之间的互信息,通过这种策略,我们的模型在标准基准测试中表现出与最先进的方法相当或优越的分类性能,此方法可应用于问题的 “算法公平性”,并得到了竞争性的结果。
Mar, 2020
本文提出了一种新颖的分离方法来解决不变表示的问题,通过正交约束作为独立的代理来将有意义和敏感表示分离,并通过熵最大化来明确地强制有意义的表示对敏感信息不可知。该方法在公开的数据集上进行了评估,并将其与最先进的方法进行了比较,证明其在处理公平性和不变性方面具有最先进的性能。
Mar, 2020
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018