多属性公平性:针对欺诈检测的应用
该研究论文对多个受保护属性的公平性改进进行了广泛研究,涵盖了 11 种最先进的公平性改进方法。结果显示,针对单个受保护属性改进公平性会大幅降低对未考虑的受保护属性的公平性。此外,在处理多个受保护属性时,精确率和召回率的影响是单个属性的 5 倍和 8 倍,在以准确性作为机器学习性能指标的将来公平性研究中,这有重要的影响。
Jul, 2023
通过多次敏感特征逐步实现公平性,利用多元 Wasserstein 几何中心将 Strong Demographic Parity 的标准推广到具有多个敏感特征的情况,并提供一种闭式解决方案,使得对不同敏感特征之间的相关性有明确的解释,进而实现了风险和不公平性之间的权衡。该方法适用于近似公平性,提供了对特定敏感特征的公平性改进的有针对性优先级,从而实现了针对案例的适应性,通过数据驱动的解决方案估计程序,并在合成和真实数据集上进行了全面的数值实验证明了我们的后处理方法在促进公平决策方面的实际有效性。
Sep, 2023
在有限的受保护属性标签访问情况下,本文开发了测量和减少公平违规的方法,提出了估计现有模型的常见公平度量和解决约束非凸优化问题以限制公平违规的模型训练技术,并且相比其他受限受保护属性的公平优化方法,在减小公平度的同时减少了公平性和准确性的权衡。
Oct, 2023
本文介绍了一种公平的异常检测方法 FairLoF,该方法能在多个敏感属性情况下实现异常检测不偏向特定群体,借鉴 LOF 算法并开发了三个启发式原则以提高公平性,在真实数据集上的实证评估表明,FairLOF 能在一定程度上实现公平的同时,几乎不影响异常检测结果的质量。
May, 2020
本文研究在具有全知对手的情况下的公平分类问题,在此情况下对于一个给定的参数 η,对手可以随意选择任意 η 分数的训练样本并随意扰动它们的保护属性。我们提出了一种优化框架来学习这种对抗情况下的公平分类器,并具有可证明的准确性和公平性保证。
Jun, 2021
介绍了如何通过安全多方计算的方法,加密敏感属性,学习一个基于结果的公平模型,而无需揭示个人敏感信息,从而避免种族或性别等敏感属性对机器学习模型造成的不公平问题。
Jun, 2018
本文提出了一种公平的聚类方法 FairKM,它基于流行的 K-Means 聚类公式,通过计算公平性与集群一致性目标,得到了公平的聚类。实证评估表明,FairKM 产生的集群在聚类质量和对敏感属性组的公平呈现方面都有显著提高。
Oct, 2019
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019
本文研究了在只有保护属性的不完美信息的情况下,公平干预是否仍然可行。我们特别研究了 Hardt 等人(2016)的等化几率后处理方法,证明了在属性扰动的情况下,只要符合我们所确定的条件,即使运行等化几率,分类器的偏差也会降低。我们还研究了所得分类器的误差,并实证观察到,在我们确定的条件下,大多数情况下误差不会因保护属性的扰动而受到影响。
Jun, 2019