利用概率受保护特征估计和实现常规公平度量
为应对个人受保护属性标签稀缺的大规模系统,本研究提出了采样策略和评估技术以对四种公平排名度量进行测量,并形成一个强大而无偏的估算器。实验结果证明了该方法的可行性和可靠性。
Aug, 2021
该研究论文对多个受保护属性的公平性改进进行了广泛研究,涵盖了 11 种最先进的公平性改进方法。结果显示,针对单个受保护属性改进公平性会大幅降低对未考虑的受保护属性的公平性。此外,在处理多个受保护属性时,精确率和召回率的影响是单个属性的 5 倍和 8 倍,在以准确性作为机器学习性能指标的将来公平性研究中,这有重要的影响。
Jul, 2023
本文研究了决策系统对于受保护类别的公正性评估时,如何使用基于观察到的代理指标的概率模型,如姓氏和地理位置来预测受保护类别并弥补缺失类别标签以满足合规性要求。作者发现该方法有偏差,并提出了一个基于软分类的替代方法,并证明了其偏差源于结果因果关系与真实类别成员资格的条件协方差。最后,作者使用数字模拟和抵押申请公共数据集进行实证研究,并得出结论:阈值法模型的偏差普遍上升,但大小强烈取决于所选择的阈值;而新的权重估计器倾向于具有负偏差,更容易分析和理解。
Nov, 2018
本文介绍了一种使用 GAN 生成图像并在潜在空间中扰动以生成可以平衡每个受保护属性的训练数据的方法,以缓解由相关性所引起的偏差,通过在原始数据集上增加扰动生成的数据,实证证明训练结果准确且具有许多定量和定性上的优势。在 CelebA 数据集上进行了全面评估和分析,与现有文献进行了比较。
Dec, 2020
本文提出了一种公平度量方法,通过迭代式基于网格的启发式算法来校准敏感属性值的结果,实现对保护属性值的公平。在多个受保护属性值的情况下,通过对欺诈检测进行研究,证明所提出的启发式算法能够实现公平。与现有的公平技术相比,该算法在多个公开数据集上的性能表现相当。
Jul, 2022
研究表明,要确保模型开发人员无法通过查询公平度量来了解个体的受保护属性,提出了一个新技术 Attribute-Conceal 来实现差分隐私,避免了普通机制的局限性。
Nov, 2022
在实现算法公平性方面存在多个实际挑战,包括数据集中受保护属性的可用性或可靠性。本研究首次对公平分类算法进行了头对头的研究,以比较基于属性、容忍噪声和盲目属性的算法在预测性和公平性两个方面的表现。我们通过对四个真实数据集和合成扰动的案例研究来评估这些算法,发现盲目属性和容忍噪声的公平分类器在受保护属性存在噪声的情况下,可能实现与基于属性的算法类似的性能水平。然而,在实践中实现这些算法需要谨慎处理。本研究为在受保护属性存在噪声或部分可用的场景中使用公平分类算法提供了实践的启示。
Jul, 2023
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
Jun, 2019