提升人类决策的准确性和公正性
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
在二元决策过程中,一个机器学习分类器取代了多个人类,并引发了问题,我们讨论了在决策过程中多样性的损失。我们研究了在关注公平学习的情况下使用随机分类器集合而不是单个分类器可能带来的潜在好处,并展示了各种有吸引力的属性:(i)一组公平的分类器可以保证公平,适用于多种不同的公平度量,(ii)一组不公平的分类器仍然可以实现公平结果,(iii)分类器集合可以实现比单个分类器更好的准确性 - 公平性权衡。最后,我们引入了分布公平的概念,以更好地描述随机分类器集合的潜在好处。
Jun, 2017
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作为公平预算的函数。此外,我们的上限还与数据、标签和敏感群体属性的底层统计学关系密切相关。通过对三个真实世界数据集(COMPAS、成年人和法学院)进行经验分析,我们验证了我们理论上限的有效性。具体而言,我们将我们的上限与文献中各种现有公平分类器所实现的折衷情况进行了比较。我们的结果表明,在统计差异存在的情况下,实现高准确性条件下的低偏差可能从根本上受到限制。
May, 2024
研究通过设计具有不同能力的裁判来加权专家,以改善二进制投票问题中的正确率,最终展示在从共同分布中 i.i.d. 抽取的已知能力不确定的一组代理的优化划分,可以更好地解决问题。
Nov, 2022
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本文概述了在使用人工智能算法时如何识别、测量和提高算法公正性的主要概念,并讨论了算法偏见和不公正的原因、公正的常见定义和度量以及预处理、处理中和后处理机制,最终回顾了几个新兴的算法公正性研究子领域。
Jan, 2020