深度学习用于人脸识别:自豪还是偏见?
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
本文研究基于深度学习技术的面部识别、年龄估计、性别识别和亲属关系验证模型中存在的人口统计学偏差,并通过引入规模最大、最全面的面部图像和视频数据集及手动注释,揭示了基于最先进模型的拟合性能和偏差,最后引入和验证了去偏嵌入网络的方法。
May, 2020
本研究使用四种不同的神经网络模型,并研究了不同的人脸对齐方法对模型的影响。研究证明,适当的参数初始化和简单的预处理步骤可以提高性别识别的表现。
Aug, 2017
研究探讨基于深度神经网络架构的学习过程中的偏见,分析了偏见如何通过玩具示例和案例研究影响深度学习过程中的性别检测模型,提出了一种新的 InsideBias 方法来检测偏见模型。
Apr, 2020
本研究使用包含 6 个不同族裔的 24K 身份的新 DiveFace 数据库进行了面向深度学习的人脸识别的全面研究和性能分析,并证明了流行面孔数据库高度代表性的族群,导致预先训练的深度面部模型具有很强的算法歧视性,该歧视性可以定性地观察到深度模型的特征空间以及在不同族裔群体中应用这些模型时存在的性能差异。
Dec, 2019
本研究旨在通过在六个不同的神经网络中进行深入调查,对面部表情识别的深度学习方法中的性别偏见进行研究,并根据公正的三个定义对其进行评估。结果显示,某些模型存在性别偏见,而更具偏见性的神经网络在男性和女性测试集之间的情感识别准确度差距更大,此外也观察到更适合用于男性和女性情感分类的不同情绪类型。
Mar, 2021
本文旨在探讨预训练模型在输入图像扭曲时是否会出现偏向性。通过对四个深度人脸识别模型在图像扭曲下不同性别和种族子群的表现进行系统分析,我们发现图像扭曲与模型在不同子群之间的性能差距存在关联。
Aug, 2021
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023