图像上采样方法的公平性评估
本论文开展了第一次大规模实证研究,全面比较了现有最先进的公平性改进技术的性能,结果显示不同方法在不同数据集和敏感属性上表现存在较大差异,且不同的公平评估指标产生显著不同的评估结果,其中预处理方法和内处理方法优于后处理方法,预处理方法表现最佳,本研究为深度学习模型公平性提供了全面的建议。
Jan, 2024
该研究使用生成对抗网络 (GANs) 生成面孔,发现在生成图像的过程中,训练数据中的偏见被放大。为了解决这个问题,提出了一种可解释的基准方法来平衡产生的面部属性,从而产生更平衡的数据。同时,该方法具有泛化能力来处理多个属性以及细分组的样本合成,进而用于量化商业人脸属性分类器和人脸超分辨率算法中的偏见。
Dec, 2020
通过扩散模型生成多个包含不同种族标签的职业图像集,我们发现使用非高加索标签生成的图像的职业错误分类率显著高于使用高加索标签生成的图像,且部分错误分类表明存在种族偏见。通过计算对不同身份群体预测的真实职业标签的概率标准差,我们测量了模型的公平性。使用这个公平性指标,我们发现在评估的视觉和语言模型之间存在显著差异。我们希望我们的研究展示了使用扩散方法进行公平性评估的潜在价值。
Nov, 2023
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
本文为了解决生成模型中的公平性问题和模式崩溃,设计了以无监督方式为基础,假设我们没有关于敏感变量的先验知识的算法,以尽可能多的敏感变量包括我们可能不知道的变量为前提,改善公平性的方法。图片中的人脸(甚至是生成的人脸)已被删除以减少法律风险。
Oct, 2022
本文介绍了公平 GAN,一种生成数据集的方法,这个数据集类似于给定的多媒体数据集,但在分配决策中对受保护属性更公平。我们提出了一种新颖的辅助分类器 GAN,力求实现人口统计学公平或机会平等,并在几个数据集上展示了实证结果,包括名人面孔属性 (CelebA) 数据集、Quick, Draw! 数据集以及一个足球球员图像数据集和他们被罚下的进攻。这种方法适合吸收未标记的数据,我们利用这个方法增强了足球数据集。在生成逼真的图像的同时,方法倾向于改善人口统计学公平和机会平等。
May, 2018
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023