机器学习中的公平性:政治哲学中的教训
论文旨在探讨社会正义与公平问题下,机器学习和预测模型的应用。虽然近期技术有所突破,但在决策自动化过程中,需考虑公正性等社会因素,而这些并无法简单归结为纯预测模型。因此,论文连通 “公正的机器学习” 与政治哲学中的 “理想与非理想方法论” 之间的关系,探讨了解决方案的局限性,并提出未来研究方向。
Jan, 2020
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
探讨机器学习算法公平性如何在预测任务中被正式化,并提供相应的社会科学文献中分配公正的概念,通过理论和实证批判这些概念,并解释这些批判如何限制相应公平正式化的适用性和讨论潜在公平正式化的路径。
Oct, 2017
本文旨在通过形式化一致的公平概念,将哲学讨论转化为 ADM 系统中 ML 模型培训和评估的一种正式框架,并提出了一般算法,以实现 fairML 的更高语言清晰度和实际应用。
May, 2022
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文阐述了机器学习中为何无法完全消除偏见,并提出一种端到端的方法论,将道德原则转化为机器学习开发实践,并支持团队逐步处理机器学习系统中的偏见,以及指南如何向用户解释这种不完美的权衡。
Mar, 2023