学习确证个体公平表示
本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
Jun, 2018
本文提出 LASSI 方法,应用生成建模来解决在高维数据环境下学习个体公平表示的问题,并通过随机平滑来确保端到端公平。实验证明该方法提高了最多 90%的认证个体公平性,而对任务效用的影响不显著。
Nov, 2021
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
该研究提出了一种名为 FaIRL 的表示学习系统,它可以在增量学习新任务的过程中维持公正,通过控制所学表示的速率畸变函数来实现公平和新任务的学习,并在目标任务上实现高性能,优于几种基准方法。
Aug, 2022
提出了一种基于人类判断的 “个体公正” 近似度量的解决方案,该模型假定我们可以获得人类的公正裁决者,其可以回答关于特定任务的个体相似性的有限一组查询,该模型包括相关的度量逼近定义,逼近构造和学习程序。
Jun, 2019
本文提出不需要人工规范距离度量的个体公平性的实现方法。我们提出新的方法获取和利用关于同样值得的个人的附加信息来打破社会群体之间的剥夺,将这些知识建模为公平图,并学习数据的统一成对公平表示,捕捉个体间数据驱动的相似性和公平性图中成对附加信息。我们从各种来源获取公平判断,包括关于再犯率预测(COMPAS)和暴力社区预测(Crime&Communities)的两个真实数据集的人类判断。实验显示,对于实现个体公平,PFR 模型是实际可行的。
Jul, 2019