分配问题中的公平学习算法
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019
使用约束优化提高算法公平性,最优算法需要将被告拘留,同时满足形式上减少种族歧视的公平约束,但是最优无约束算法需要将所有被告适用相同阈值,最大限度确保公共安全和平等。在 Broward County, Florida 的数据中可以发现,提高算法公平性和满足公共安全之间存在着权衡和牺牲。
Jan, 2017
研究了将稀缺的社会资源分配给异质性申请人的问题,根据观察到的协变量设计了一种在线政策,以满足预算限制并最大化预期结果,并通过数据驱动的政策几乎确定渐近实现了最佳样本外政策的预期结果,并扩展了包括各种公平约束的框架。
Nov, 2023
研究算法公平性和隐私在机器学习中的应用,分析了公平性对训练数据信息泄露的影响,发现公平性会牺牲一部分隐私权,特别是对弱势群体。同时,训练数据的偏差越大,为了弱势群体的公平性所付出的隐私成本也越高。
Nov, 2020
本文研究了资源分配中公平性和利用率之间的平衡问题,并探讨了在需求分布不均时的公平性要求,得到了一些不同概率分布下的可证明的最大可使用率上界,发现了某些类型的概率分布下最大可使用率不受公平性约束,并且在幂律分布中求解的间隔可以由与分布参数无关的常数因子进行约束。
Jun, 2019
研究机器学习算法如何实现公平性是机器学习中一个重要的领域。为了在构建机器学习系统时考虑公平性,这篇文章提出了一种新的公平性模型,即在具有审查制度的情况下进行个体公平性学习,探索了缺乏类标签前提条件的情况下如何对待相似的个体并减少歧视。本文在三个真实世界的数据集上验证了该方法的卓越表现,既能最小化歧视,又能保持预测性能。
Feb, 2023
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
May, 2019
本研究从补救行动的角度研究算法公正性,提出两个新的公正性准则,明确考虑特征之间的因果关系,从而捕捉在物理世界中执行的补救行动的下游效应。我们探讨了我们的标准与其他标准,如反事实公正性的关系,并且证明了补救公正性与预测公正性互补。最后,我们讨论了是否可以通过社会干预来更好地解决数据生成过程中的公正性违规问题,而不是限制分类器。
Oct, 2020