本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
本文提出了一种基于概率生成模型的方法,通过在采用了多种形式的相关特征的训练数据中有效地估计敏感属性信息,从而提高公平模型的学习率。实际测试表明了该方法的准确性和公平性。
Mar, 2022
研究了在训练标签被随机噪声污染和误差率依赖于保护子组的成员函数的情况下如何训练公平分类器,发现简单地强制使用人口统计差异措施达到平等,会降低分类器的准确性和公平性。通过使用指定的替代损失函数和替代约束条件对经验风险最小化进行优化可以减少标签噪声引起的问题。
Oct, 2020
该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
Feb, 2023
在实现算法公平性方面存在多个实际挑战,包括数据集中受保护属性的可用性或可靠性。本研究首次对公平分类算法进行了头对头的研究,以比较基于属性、容忍噪声和盲目属性的算法在预测性和公平性两个方面的表现。我们通过对四个真实数据集和合成扰动的案例研究来评估这些算法,发现盲目属性和容忍噪声的公平分类器在受保护属性存在噪声的情况下,可能实现与基于属性的算法类似的性能水平。然而,在实践中实现这些算法需要谨慎处理。本研究为在受保护属性存在噪声或部分可用的场景中使用公平分类算法提供了实践的启示。
Jul, 2023
本研究提出了一个新的公平定义,通过对敏感特征感兴趣的亚组的期望损失进行衡量,从而实现了通用的敏感特征以及凸性目标的结果。该目标是基于条件风险最小化构建的,这与数学金融中风险度量的丰富文献相关。
Jan, 2019
学习公平分类器的方法是避免使用敏感属性的训练数据,在适当分布转移的数据集上进行传统训练可以同时减少公平差距上界和模型泛化误差,提高公平性和准确性。我们提出了一种可行的解决方案,通过采样有影响力的数据来在训练过程中逐步转移原始训练数据,其中新数据的敏感属性不会被访问或用于训练。对真实数据的大量实验验证了我们提出算法的有效性。
Feb, 2024
本文研究了如何通过改进 two-naive-Bayes(2NB)算法,进而将之推广到 N-naive-Bayes(NNB)算法,从而得出一种基于多个敏感特征的差异公平性约束条件,并对其进行了实证研究。
Feb, 2022
对受到恶意干扰数据的公平约束学习的脆弱性进行研究,发现使用随机化分类器可以降低损失。
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019