不确定性下的排名公平性
本研究提出一种旨在平衡公平性和实用性的机器学习分类任务的独特解决方案,它利用贝叶斯学习估计样本预测的不确定性,并通过不确定性量化来定义新型的公平性 - 效用目标,从而实现同时优化公平性和实用性。实证研究发现,具有低分类不确定性的样本比高不确定性的样本更准确、更公平。实验结果表明,该方法在公平性和实用性平衡方面表现优异,并有望在机器学习中实现最佳公平性和实用性。
Apr, 2023
本研究提出了一种有效的算法,在保持个体公平的情况下,从一组项目中随机抽样出排名,以确保输出排名满足群体公平性限制,同时保证输出排名的期望效用至少是最优公平解的效用的 α 倍,进而实现在线平台的算法公平。
Jun, 2023
本文研究了决策过程中的公平性,并提出了基于效用的方法来更准确地评估决策过程的真实世界影响。通过两个实际案例研究,发现传统的概率评估可能无法全面捕捉公平性,而基于效用的方法则可以揭示实现平等的必要行动。总结来说,本文强调了在评估公平性时考虑真实世界背景的重要性。
May, 2024
通过因果推断的主分层概念,引入了一个新的公平概念 —— 基本公平,以人类和算法决策为例。其核心思想是不应该歧视那些对决定影响相似的个体。与现有的统计公平定义不同,基本公平明确考虑了个体可能受到决策影响的事实。
May, 2020
我们的研究考虑了排名函数:将分类任务的个别预测映射为排名分布,重点关注对预测扰动的稳定性以及对个体和子群体的公平性。我们展示了最近提出的基于不确定性的排名函数在稳定性方面的表现,并且通过与多准确预测或多校准预测器的成功组合,实现了多组公平性。我们的研究表明,基于不确定性的排名在组和个体级公平性保证之间自然插值,并且同时满足在使用机器学习预测时重要的稳定性要求。
Feb, 2024
本文提出了一种能够同时解决学习算法固有的和训练数据中的算法和应用中置入偏见的公平性问题的排序方法,采用一类延迟策略梯度方法,即采用公平度量的代价函数,并针对所需的应用程序选择一类的 “平均公平度量” 选择公平度量,有效地使学习算法能够处理包含偏差和噪声的数据,并通过对算法进行实证研究证明其能够获得准确而公平的排序策略。
Nov, 2019
本文从贝叶斯公平的角度探讨了在决策中如何解决模型不确定性带来的不公平问题,并介绍了将参数不确定性纳入机器学习公平性的新概念。结合 Kleinberg 等人提出的公平定义,研究表明贝叶斯公平能产生在高度不确定性下性能好的公平决策规则。
May, 2017
通过提供一致的估计器和推理方法,本文研究了决策过程中算法的公平性和准确性之间的权衡,还提出了是否排除算法训练中的某些协变量以及是否存在非歧视性替代算法等方面的假设。
Feb, 2024
本文定义并解决了公平的 Top-k 排名问题,算法可以在保证每个排名的前缀中所选的受保护候选人的比例在统计意义上始终高于或不可区分于给定最小值的情况下,从一大波的候选人中选取 k 个最合适的候选人,使得公平性和效用权衡紧密结合,对最大化效用和减少偏差有显著贡献。
Jun, 2017