分位数保持下的公平数据适应
本文研究了一类称为公平回归的问题,在保证对于某些受保护属性(如性别或种族)的公平性的情况下,预测一个实数目标(如风险评分或再犯率)。提出了通用的公平回归方案,包括统计平等和有界组损失两种公平性。与其他任务相比,该方案只需要使用标准的风险最小化算法(如标准分类或最小二乘回归),而提供得到的解的最优性和公平性的理论保证。除了分析方案的理论性质外,还在几个标准数据集上经验性地展示其揭示公正 - 准确性前沿的能力。
May, 2019
若以相等的人受到相同待遇,不相等的人受到不同待遇定义决策为公平,采用此定义,设计机器学习模型以减少自动决策系统中的不公平必须引入保护属性时进行因果思考。根据近期提出的建议,我们将个体定义为在一个虚构的、规范化的期望(FiND)世界中相等,该世界中保护属性对目标没有(直接或间接)因果影响。我们提出了保持排名的干预分布来定义这个 FiND 世界的估计量,并提出了一种估计方法。对于该方法和得到的模型,我们提出了评估标准,并通过模拟和实证数据进行了验证。通过此方法,我们展示了我们的调整方法能够有效识别出最受歧视的个体,并减少了不公平。
Jul, 2023
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
在机器翻译任务中,为了实现两种语言之间的双向翻译,常常使用源语料库作为目标语料库,这涉及到使用相反方向的两个模型进行训练。然而,不同因素会影响适应速度,包括原始分布和修改后分布之间的因果依赖关系。本文通过考察简单的结构性因果模型中的敏感变量作用,对两个模型在四种场景的适应速度进行对比,并证明了所有干预情况下两个模型适应速度之间的联系。
Aug, 2023
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
本研究评估了性别偏见的 NLP 模型的统计和因果去偏方法,发现这些方法在目标度量上有效减少了偏见,但不一定改善了其他偏见度量的结果。同时,我们展示了统计和因果去偏技术的组合能够减少通过两种类型的度量来衡量的偏见。
Mar, 2024
介绍了一种新的模型偏置量化指标 Quantile Demographic Drift (QDD),结合现有的连续模型监控系统 FairCanary 使用,相对于现有的统计学限制和依赖标签的偏差度量方法更快、更准确地检测并解释模型性能问题,实现对部署的机器学习模型的持续监控。
Jun, 2021