本文旨在通过形式化一致的公平概念,将哲学讨论转化为 ADM 系统中 ML 模型培训和评估的一种正式框架,并提出了一般算法,以实现 fairML 的更高语言清晰度和实际应用。
May, 2022
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
本文主张机器学习社群采用一个规范的公正定义,并以此为基础回顾当今公平机器学习的现有文献,提出了吸纳更广泛社群并就决定何为公平展开更多辩论的建议。
Jun, 2017
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
正义是公平的概念。在没有统一接受的公平概念的情况下,如何为特定应用程序选择最适当的公平度量标准是实现可持续公正的关键问题。为了提供更多实用指导,作者提出了 “公平度量罗盘”,这是一个工具,可以形式化选择过程,并简化选择特定系统的最适当的公平定义。同时还可以解释和证明所采取公平措施的理由。
Feb, 2021
该研究利用一个数学框架描述了公平性评估中一些常用的指标,探讨了它们之间的关系,为算法开发者和用户提供指导。
Jan, 2020
论文讨论公正机器学习算法的义务,对比不同的公正度量标准及其在道德层面的合理性,分析 Hardt 等人提出的公正机器学习算法引起的道德问题。作者建议需要从综合角度评价公正机器学习算法的策略和效果。
Feb, 2022
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
本文介绍公平概念的多种不同观点,并提出了在真实世界场景下最适合的公平概念,该结果总结于决策图中,以帮助从业者和决策者浏览 ML 的巨大目录。
Jun, 2020
该论文探讨机器学习公平性定义与其在复杂社会技术系统中的意识形态差异,并阐述它们与法律概念、术语的不一致性,研究美国反歧视法给机器学习公平性研究提供的启示。
Nov, 2019