讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文研究算法公平性在机器学习中的应用,并提出了衡量和解决算法公平性问题的新方法,包括公平性指标和模型训练优化。
Jan, 2019
本文旨在通过形式化一致的公平概念,将哲学讨论转化为 ADM 系统中 ML 模型培训和评估的一种正式框架,并提出了一般算法,以实现 fairML 的更高语言清晰度和实际应用。
May, 2022
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
本文阐述了机器学习中为何无法完全消除偏见,并提出一种端到端的方法论,将道德原则转化为机器学习开发实践,并支持团队逐步处理机器学习系统中的偏见,以及指南如何向用户解释这种不完美的权衡。
Mar, 2023
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
论文讨论公正机器学习算法的义务,对比不同的公正度量标准及其在道德层面的合理性,分析 Hardt 等人提出的公正机器学习算法引起的道德问题。作者建议需要从综合角度评价公正机器学习算法的策略和效果。
Feb, 2022
将公平性问题重新解释为一种基于超级公平性目标的模仿学习任务,以同时提高决策的准确性和公平性。
Jan, 2023
本文介绍了一支团队在大型技术公司的复杂生产系统中应用算法公平方法的挑战以及如何解决处理不同利益相关方之间的利益冲突的问题,同时还介绍了一种实用的方法来衡量机器学习系统和人类标记员在各种相关群体间进行权衡的情况。希望我们整合公平工具和方法到大规模复杂生产系统的经验对其他从业者有所助益,同时是研究人员更好地满足从业者需求的更深入的探索。
Mar, 2021
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019