本文介绍了分类和公平制度的基于福利的分析,证明了更严格的公平标准通常不符合社会选择理论和福利经济学中的 Pareto 原理,并表明这些约束往往不能保证公正。
May, 2019
该论文探讨了两种调度机制(K 和 P 机制)的性能,证明了 K 机制是优于 P 机制的,并在特定条件下给出了它们的平均近似比例收敛值。
Apr, 2022
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
机器学习和深度学习的最新进展使得算法公平成为一个关注焦点,引发对影响某些个体或群体的歧视性决策的担忧。本调研综述基于 “容忍度” 提出了一个新的分类系统,揭示了算法决策中公平的微妙性。通过分析多个行业,我们的系统性综述揭示了算法决策与社会公平之间的关键见解。通过综合这些见解,我们勾勒出一系列新兴挑战,并提出未来研究和政策制定的战略方向,以推动该领域朝着更加公平的算法系统发展。
Apr, 2024
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
通过因果推断和约束优化方法学习公平政策,解决敏感情境下数据分析中存在的多个潜在偏见,避免自动决策程序和学习算法继续存在不公平现象。
Sep, 2018
该研究提出了一种算法公平的努力程度量度标准,并提出了一种数据驱动框架,用于表征算法政策对重塑基础人口的长期影响。
Mar, 2019
本文提出使用 Pareto 前沿和 Chebyshev 标量化方案来解决算法公正中准确性和公正性的平衡问题,并证明 Chebyshev 标量化方案在恢复 Pareto 最优解方面比线性标量化方案具有更好的理论性能和计算成本效益。
Aug, 2020