公平感知插件算法统计保证
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
在本研究中,我们调查了在差分隐私和公平性的约束下的二元分类问题。我们首先提出了一种基于解耦技术的算法,用于学习一个只保证公平性的分类器。该算法接受在不同人口群体上训练的分类器,并生成一个满足统计平衡的单个分类器。然后,我们改进了该算法以加入差分隐私。在隐私、公平性和效用保证方面,对最终算法的性能进行了严格的检验。在 Adult 和 Credit Card 数据集上进行的实证评估显示,我们的算法在公平性保证方面优于现有技术,同时保持相同水平的隐私和效用。
Feb, 2024
研究二分类问题中的公平问题,通过使用 “Equal Opportunity”,确保真正的阳性率在敏感组中分布均匀。通过重新校准贝叶斯分类器,获得公平最优分类器。提供了一组门槛的构造表达式,并基于无标签和有标签的数据集设计了一个插件分类过程,可以计算公平错误,同时在公平度量上保持统计一致性。
Jun, 2019
在处理敏感信息的应用程序中,数据限制可能会对机器学习(ML)分类器的可用数据施加限制,本文提出了一个框架,模拟了在四种实际情景下准确性和公平性之间的折衷,以确定在各种数据限制情况下,贝叶斯分类器的准确性受到的影响是如何的。
Mar, 2024
本文提出了一种在线 multiplier bootstrap 方法,用于构建置信区间,以评估通过在线 SGD 类型算法训练具有 Disparate Impact 和 Disparate Mistreatment 意识的线性二元分类器的公平性,并在合成和实际数据集上说明了其结果。
Apr, 2023
通过概率人群分析,我们重新审视标准的公平分类问题,并揭示出贝叶斯最优分类器。我们的方法统一了各种现有的组公平分类方法,并扩展到各种不可分解的多类性能度量和公平性度量。在各种真实数据集上,我们提出的方法在公平性与性能的权衡方面优于基线。
Jun, 2020
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023