该论文通过优化社会福利功能(SWF)来评估各种公平性定义,探讨了广义社会公正观念是否对实现 AI 中的公平性有用,结果表明最优解可以在特定条件下证明人口平等或平等几率,但通常需要偏离这些平等类型。此外,预测率平衡的实用性有限,这些结果表明优化理论可以为如何在 AI 中实现群体公平性的讨论问题提供启示。
May, 2024
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
通过对统计平等和预测平等的关系进行原因分解,我们得出了一种新的公式,使得两种平等概念不互斥,而是互补的,并通过业务必要性的理念涵盖了公平性概念的一系列光谱,最终我们通过真实世界的案例证明了我们发现的重要性。
Jun, 2023
论文讨论公正机器学习算法的义务,对比不同的公正度量标准及其在道德层面的合理性,分析 Hardt 等人提出的公正机器学习算法引起的道德问题。作者建议需要从综合角度评价公正机器学习算法的策略和效果。
Feb, 2022
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
该研究利用一个数学框架描述了公平性评估中一些常用的指标,探讨了它们之间的关系,为算法开发者和用户提供指导。
Jan, 2020
本研究探讨了在自动化数据驱动决策中存在的公平性问题,并基于账单分配和无嫉妒性理论,提出了一种基于偏好的公平性概念及采用可行的代理方法设计符合偏好公平性观念的分类器。 通过实验得出此偏好公平性相较于基于平等的公平性更加实用。
Jun, 2017
本文介绍了分类和公平制度的基于福利的分析,证明了更严格的公平标准通常不符合社会选择理论和福利经济学中的 Pareto 原理,并表明这些约束往往不能保证公正。
May, 2019
本文将算法公平性的概念与政治哲学中的机会平等等经济模型进行了概念映射,通过这种方式,许多现有的算法公平性定义可以解释为机会平等的特例,从而成为理解现有算法公平性概念的统一道德框架,并且我们基于机会平等模型提出了新的算法公平度量标准,我们的实证结果表明,当社会道德假设不满足时,使用算法公平度量会对弱势群体的福利产生严重后果。
Sep, 2018
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019