偏见放大提升少数群体表现
本研究通过分析和实验,展示了在分类器中无法避免的一些偏见和可以上保准确认定的其他偏见来源,并提出了两种新的解决方法。这些方法可以明显降低偏见而不损害准确性,甚至可以取得一些准确度的提高。
Dec, 2018
机器学习中的偏见放大是一个常见的问题,需要加深对于模型机制的理解,本研究通过控制性实验发现,偏见放大可能由于模型准确度、能力、自信度以及训练数据量等因素产生,同时也可能与分组和分类任务的难易程度相关,研究结果对指导训练机器学习模型具有借鉴意义。
Jan, 2022
本研究针对图像分类中的数据集偏差问题,提出了一种基于偏差模型 $f_B$ 的数据样本选择方法来增强偏差,有效提高了 $f_D$ 的训练效果。该方法适用于现有的基于重新加权的去偏差技术,并在合成和真实数据集上实现了最先进的性能。
May, 2022
通过引入一个偏差放大的训练集和一个反偏袒的测试集来评估模型的性能,我们提出为了开发对这些偏差具有稳健性的模型,应该将数据集的偏差放大。实验表明,这种评估体系对模型来说比原始的数据拆分和手工制作的挑战集都更具挑战性。
May, 2023
通过此研究,我们展示了样本梯度范数与 DP-SGD 中使用的梯度估计偏差之间的关系,并提出了 Bias-Aware Minimization(BAM)方法,用以降低私有梯度估计器的偏差,我们还提供了对 CIFAR-10、CIFAR-100 和 ImageNet-32 数据集上隐私 - 效用权衡的实证证据。
Aug, 2023
通过使用委员会的思想,训练不带伪标签的去偏见分类器,以解决神经网络在训练数据中出现偏倚和虚假相关性的问题,并在五个真实世界的数据集上验证了该方法的超越之处。
Jun, 2022
使用 Data Debiasing with Datamodels (D3M) 方法,在不需要训练组注释或额外的超参数调整的情况下,通过隔离和移除导致模型在少数群体上失败的特定训练样本,可以高效地训练去偏置分类器。
Jun, 2024