我们提出了一种新颖的方法,通过研究个体公平性、对抗鲁棒性和结构因果模型之间的关系,特别是在处理离散敏感属性时,来实现个体公平性、对抗鲁棒性和因果性的综合应用。通过引入新的因果对抗扰动和对抗训练,我们创建了一个将个体公平性、因果性和鲁棒性相结合的新的正则化项,并在真实世界和合成数据集上对我们的方法进行了评估,证明了其在实现公平、对抗鲁棒和因果感知的分类器方面的有效性。
Aug, 2023
该论文提出了一种新的公正定义方式,使用度量为给定模型提供公正的一个衡量标准,并且通过将随机平滑机制应用于更复杂的模型来实现个体公正。实验表明将线性模型的最小度量适应于更复杂的神经网络可以在很小的代价下提供有意义和可解释的公正保证。
Feb, 2020
本文研究在具有全知对手的情况下的公平分类问题,在此情况下对于一个给定的参数 η,对手可以随意选择任意 η 分数的训练样本并随意扰动它们的保护属性。我们提出了一种优化框架来学习这种对抗情况下的公平分类器,并具有可证明的准确性和公平性保证。
Jun, 2021
提出了一种使用 “fairness confusion” 概念的方法来平衡准确性和个体公平性之间的关系,使用由 “fairness confusion directed gradient search” 制作的敌对扰动的方法来改善深层神经网络的 “accurate fairness”,提高准确性和个体公平性。
May, 2023
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
Oct, 2023
本篇论文研究了深度学习模型在公平性和鲁棒性交叉应用中面临的挑战,并探讨了取得公平性如何降低模型对抗采样的鲁棒性的现象。作者提出了一种简单而有效的解决方案来平衡公平性和鲁棒性之间的权衡关系。
Nov, 2022
本文研究了对抗攻击和训练在公平性和准确性两个方面的影响,提出了一种公平性攻击的统一结构,并证明了不同概念的公平性攻击的等价性。研究表明,统一对抗性训练和攻击在公平性和准确性方面可以同时提高性能。
Mar, 2023
该研究提出了两种针对算法公平性的新型数据污染攻击方法:锚定攻击和影响公平攻击,通过实验验证了这些攻击的有效性。
Dec, 2020
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018