基于障碍偏差的分类器公平性评估
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
在二元决策过程中,一个机器学习分类器取代了多个人类,并引发了问题,我们讨论了在决策过程中多样性的损失。我们研究了在关注公平学习的情况下使用随机分类器集合而不是单个分类器可能带来的潜在好处,并展示了各种有吸引力的属性:(i)一组公平的分类器可以保证公平,适用于多种不同的公平度量,(ii)一组不公平的分类器仍然可以实现公平结果,(iii)分类器集合可以实现比单个分类器更好的准确性 - 公平性权衡。最后,我们引入了分布公平的概念,以更好地描述随机分类器集合的潜在好处。
Jun, 2017
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
该研究引入了一种灵活的机制,以设计公平的分类器,其中利用了一种新颖的、直观的决策边界(不)公平度量,并结合实际的数据表明,该机制在维持准确度的小代价下,允许对公平度进行微调。
Jul, 2015
本研究探讨了 12 种顶级的偏差缓解方法,讨论其性能,基于 5 种不同的公平度量标准、实现的准确性和金融机构的潜在利润。我们的研究结果表明,在保留准确性和利润的前提下实现公平存在困难,同时突出了一些最佳和最差的表现,并有助于实验机器学习和其工业应用之间的联系。
Sep, 2022