公平分类的规约方法
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
在处理敏感信息的应用程序中,数据限制可能会对机器学习(ML)分类器的可用数据施加限制,本文提出了一个框架,模拟了在四种实际情景下准确性和公平性之间的折衷,以确定在各种数据限制情况下,贝叶斯分类器的准确性受到的影响是如何的。
Mar, 2024
本文提出了一种减轻学习分类器不公平性的新方法,特别关注来自两个群体的个体的二元分类任务,在我们的公平标准下,我们希望在两个群体中实现相似的误报率和漏报率。作为概念验证,我们实现了这种方法并从犯罪风险评估、信用、放贷和大学入学领域的数据集中对其进行了实证评估,以评估其实现公平性和精度的能力。
Jun, 2017
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019
该论文提出了一个新的统一框架,利用深度分类模型对证明的公平性指标进行联合优化,适用于许多分类器,解决了现有方法无法建模精确公平性的问题。
Dec, 2020
在本研究中,我们调查了在差分隐私和公平性的约束下的二元分类问题。我们首先提出了一种基于解耦技术的算法,用于学习一个只保证公平性的分类器。该算法接受在不同人口群体上训练的分类器,并生成一个满足统计平衡的单个分类器。然后,我们改进了该算法以加入差分隐私。在隐私、公平性和效用保证方面,对最终算法的性能进行了严格的检验。在 Adult 和 Credit Card 数据集上进行的实证评估显示,我们的算法在公平性保证方面优于现有技术,同时保持相同水平的隐私和效用。
Feb, 2024