关于公平表示学习的回归走向
本研究提出一种新的公平性表示学习(FRL)方法 —— 受限编码公平性(FARE)方法,通过限制编码器的表示空间来获得适当的公平性保证,实现了经验准确度 - 公平性权衡,并且利用实用的统计程序计算了下游分类器不公平性的高置信度上界。
Oct, 2022
本研究提出了一种称为 FRG 框架的公平表示学习方法,该方法能够提供对所有下游模型和任务的不公平性的高置信度保证,并通过用户定义的上界限制不公平性。实证评估结果表明,FRG 方法能够有效地上界限制多个下游模型和任务的不公平性。
Oct, 2023
该研究提出了一种名为 FaIRL 的表示学习系统,它可以在增量学习新任务的过程中维持公正,通过控制所学表示的速率畸变函数来实现公平和新任务的学习,并在目标任务上实现高性能,优于几种基准方法。
Aug, 2022
在参数不足的情况下,我们提出了一种新颖的 Federated representation learning 算法 FLUTE,理论上表征了其在线性模型的样本复杂度和收敛速率,实验结果证明其优于现有解决方案。
Jun, 2024
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
该研究论文探讨了学习表示方法和多个敏感属性之间实现群体和子群体公平性的方法,通过提出一种算法来实现紧凑立体的数据表示,该算法可以灵活地进行公平性调整,同时不需要使用敏感属性进行推理,拥有较好的分类效果。
Jun, 2019