意识到公平性
在 Dwork 等人的框架中,我们研究了公平分类问题,提出了一种新的公平概念 (metric multifairness)。该概念是基于相似度度量和样本的比较集合,并且可以用有限次查询任意度量的方式来实现。
Mar, 2018
提出了一种基于人类判断的 “个体公正” 近似度量的解决方案,该模型假定我们可以获得人类的公正裁决者,其可以回答关于特定任务的个体相似性的有限一组查询,该模型包括相关的度量逼近定义,逼近构造和学习程序。
Jun, 2019
本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
Jun, 2018
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
本研究提出一种基于个体和统计概念的新公平性定义族,设计了一种可以访问任何标准公平性无关的学习启发式算法的神谕有效算法,用于公平经验风险最小化任务,并且通过实验证明了其效果。
May, 2019
本文研究公平聚类问题并提出了采用 f - 散度测量统计相似度,以确保相似的个体得到类似的对待,该方案保证了群体公平性与个人公平性。在 $p$- 范目标的约束下,我们提供了可证明的近似保证聚类算法。同时,我们还考虑了群体公正和个人公正在受保护群体内的实现条件,并证明了个人公平性是群体公平性的必要条件。实验证明了这种方法的有效性。
Jun, 2020
本文旨在通过实现一个两步训练过程来识别和减轻个人不公平,并利用最近在此领域发表的一些技术,特别是在信贷审批用例中适用的技术。我们还调查了实现个人公平性的技术在实现团体公平性方面的有效程度以及提出了第二度量标准来确定模型如何公平地处理类似的个体,最后呈现了一些与个人不公平减轻技术相关的实验结果。
Nov, 2022
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019