本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
Jun, 2018
本文提出了一种处理包含连续敏感属性的回归算法中避免敏感信息不公平影响的公平经验风险最小化方法,并将其泛化到标准有监督学习的整个情境中,该方法在进行知名的平等概念的实证风险最小化情境时可以减少公平度量;同时该文构建了一种可以针对内核方法进行共性公平估计的方法,并通过对公共数据集和来自五千名学生的新数据集的实验结果显示其实现了精度和公平要求之间的有效平衡。
Jan, 2019
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
本研究提出了两种简单的方法,从多种数据类型中学习公平指标,经实验证明使用学习到的指标进行公平训练可以在三种机器学习任务中有效减少性别和种族偏见,同时也提供了关于统计性能的理论保证。
Jun, 2020
提出了一种基于人类判断的 “个体公正” 近似度量的解决方案,该模型假定我们可以获得人类的公正裁决者,其可以回答关于特定任务的个体相似性的有限一组查询,该模型包括相关的度量逼近定义,逼近构造和学习程序。
Jun, 2019
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
本文研究分类中的公平性,并提出了一种包括度量相似性、最大化效用和公平约束的公平分类框架。同时,我们讨论了公平与隐私的关系,并介绍了将差分隐私应用于公平的工具。
Apr, 2011