依赖于组的标签噪声下的公平分类
通过实证方法,我们评估了六种标签噪音修正方法在多个公正度度量标准上的表现,结果表明混合标签噪音修正方法在预测性能和公正度之间取得了最佳平衡,而基于聚类的修正方法可以最大程度地减少歧视但降低了预测性能。
Jun, 2023
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
训练神经网络分类器在带有标签噪声的数据集上存在过拟合的风险,为了解决这个问题,研究人员探索了更加稳健的替代损失函数,然而,许多这些替代方法都是启发式的,仍然容易受到过拟合或欠拟合的影响。在本研究中,我们提出了一种更直接的方法来应对标签噪声引起的过拟合问题,我们观察到标签噪声的存在意味着噪声泛化风险的下界,基于这一观察,我们提出在训练过程中对经验风险施加一个下界来减轻过拟合问题。我们的主要贡献是提供了理论结果,给出了不同损失函数下噪声风险的最小可达下界的明确、易于计算的界限。我们通过实验证明,在各种设置中使用这些界限极大地提高了鲁棒性,几乎没有额外的计算成本。
Jul, 2023
考虑机器学习分类器对不同民族、群体的不公平对待问题,本文提出了公正约束的多种方式,以及带有偏见的训练数据对分类器性能的影响,并探讨了如何利用公正约束的 Empirical Risk Minimization 算法来调整分类器以达到公平与精确度的平衡。具体而言,在选择 Equal Opportunity 以及使用 ERM 算法时能够达到 Bayes Optimal Classifier。
Dec, 2019
本研究探讨了在监督式分类的情况下,训练数据的质量与通过这些数据训练的模型的整体公平性之间的关系,并测量了多个图像分类数据集上多个算法的关键公平度量,同时描绘和添加数据中的噪声以及对训练集数据进行标记的不准确性与标记噪声之间的关系。
May, 2023
在最后一层重新训练中,我们提出了一种针对标签噪音的快速修正方法,通过在潜在最近邻图上进行标签传播,实现了在广泛数据集上对称标签噪音下最差群体准确性的最先进水平。
Jun, 2024
通过阈值为基础的最优公平分类器的特征,本文给出了 Blum & Stangl (2019) 结果的另一证明,并证明了其对于偏倚参数的条件既是必要的又是充分的。此外,我们还证明了对于任意数据分布,只要优化准确分类器在假设类别中是公平和稳健的,那么在偏倚分布上进行公平分类就可以恢复该分类器,前提是偏倚参数满足一定的简单条件。
Dec, 2023