分类中公平的代价
本文介绍了一个系统方法来在二元分类问题中实现公正性,该方法涵盖了许多先前研究的定义,将公平分类问题转化为成本敏感的分类问题序列,并引入两个新的降低方法来获得较优结果。
Mar, 2018
本研究提出了一个新的公平定义,通过对敏感特征感兴趣的亚组的期望损失进行衡量,从而实现了通用的敏感特征以及凸性目标的结果。该目标是基于条件风险最小化构建的,这与数学金融中风险度量的丰富文献相关。
Jan, 2019
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
在处理敏感信息的应用程序中,数据限制可能会对机器学习(ML)分类器的可用数据施加限制,本文提出了一个框架,模拟了在四种实际情景下准确性和公平性之间的折衷,以确定在各种数据限制情况下,贝叶斯分类器的准确性受到的影响是如何的。
Mar, 2024
本研究讨论了关于算法分类的公正性的最近公众领域的讨论, 探讨了三种公平条件并证明除非在高度约束的特殊情况下,没有一种方法可以同时满足这三个条件,这些结果表明公正性的关键概念彼此不兼容,需要权衡其之间的关系。
Sep, 2016
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
该研究引入了一种灵活的机制,以设计公平的分类器,其中利用了一种新颖的、直观的决策边界(不)公平度量,并结合实际的数据表明,该机制在维持准确度的小代价下,允许对公平度进行微调。
Jul, 2015
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024