相对于种族特征的人脸识别准确性变异的特征描述
这篇论文探讨了人脸识别技术的偏见和种族主义问题,分析了测试数据、训练数据和图像本身特征等多个因素对人脸识别准确度的影响。研究发现,测试图像本身特征对人脸识别准确度有着直接的影响。
Apr, 2023
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
研究面部识别技术在跨种族验证方面的种族偏差问题以及基于挑战性测试,发现 2019 年的 ArcFace 面部识别算法和两种最先进的系统比人类更准确地识别黑白人脸,但需要进一步探讨这一结果在野外环境中应用的普遍性。
May, 2023
本篇论文对男女面部识别精度差异进行了深入分析,发现女性识别精度较低的原因是女性的冒名者分布向更高的相似性分数倾斜和女性真实分布向较低的相似性分数倾斜,这种现象的普遍性跨越 African-American、Caucasian 和 Asian 面孔的数据集,即使在将照片子集分别分为中立表情和垂直角度为零时,精度差异也会持续存在。
Jan, 2020
本文总结了 2020 年 ChaLearn Looking at People Fair Face Recognition and Analysis Challenge 的评测结果和优胜解决方案,并提供了对结果的分析。这个比赛的目的是评估提交算法在其他混淆因素存在时的准确性和性别和肤色方面的偏见。参赛者使用一个不平衡的数据集进行了评估,这模拟了 AI 模型在不平衡数据上训练和评估的真实世界情况。最终该比赛吸引了 151 个参与者,36 个团队进入了最后一轮。其中 10 个团队在实现非常低的偏见指标的同时,超过了 0.999 的 AUC-ROC。参赛者们常用的策略包括面部预处理、数据分布的同质化、使用有偏向性的损失函数和集成模型。前 10 名团队的分析还表明,对于肤色较暗的女性,虚假阳性率较高,同时,佩戴眼镜和年龄较小也会增加虚假阳性率。
Sep, 2020
本研究介绍了针对人脸识别中 ROC 曲线的统计版本与偏差问题,基于经验 ROC 分析,因相似度评分的 True/False Acceptance Rates 呈 U - 统计学形式,导致朴素的自助法方法不适用,需采用专门的重新校准技术,以此计算准确的 ROC 曲线。本研究采用数张人脸图像为实验数据,分析了多种基于 ROC 的公平性指标。
Nov, 2022
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020