跨种族人脸验证的人机比较:性能上限下的种族偏见?
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
最近机器学习和计算机视觉的进展使得人脸识别的准确率超越了人类表现。然而,我们质疑这些系统在真实的法庭鉴定情景中是否能够有效应用,因为在这种情景下,图像往往是低分辨率、低质量且被部分遮挡。本研究构建了一个大规模的合成人脸数据集,并创建了一个控制的人脸法庭鉴定场景,通过这两者的结合,可以在一系列真实环境条件下对人脸识别进行控制性评估。通过使用这个合成数据集和一个包含真实人脸的流行数据集,我们评估了两个常见的基于神经网络的人脸识别系统的准确性。我们发现,在这种更具挑战性的法庭鉴定情景中,先前报道的超过 95% 的人脸识别准确率下降到了 65%。
Nov, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
该研究对 MORPH 数据集中的非裔美国人和白人图像组之间的面部识别准确性差异进行了系统调查,发现四个匹配器的假冒者和真实分布在组之间存在显着差异,使用 ICAO 合规性作为图像质量标准,结果发现初始图像组具有不均等的合格图像比率,并表明该 ResNet 匹配器的效果更好。
Apr, 2019
本文总结了 2020 年 ChaLearn Looking at People Fair Face Recognition and Analysis Challenge 的评测结果和优胜解决方案,并提供了对结果的分析。这个比赛的目的是评估提交算法在其他混淆因素存在时的准确性和性别和肤色方面的偏见。参赛者使用一个不平衡的数据集进行了评估,这模拟了 AI 模型在不平衡数据上训练和评估的真实世界情况。最终该比赛吸引了 151 个参与者,36 个团队进入了最后一轮。其中 10 个团队在实现非常低的偏见指标的同时,超过了 0.999 的 AUC-ROC。参赛者们常用的策略包括面部预处理、数据分布的同质化、使用有偏向性的损失函数和集成模型。前 10 名团队的分析还表明,对于肤色较暗的女性,虚假阳性率较高,同时,佩戴眼镜和年龄较小也会增加虚假阳性率。
Sep, 2020
这篇论文探讨了人脸识别技术的偏见和种族主义问题,分析了测试数据、训练数据和图像本身特征等多个因素对人脸识别准确度的影响。研究发现,测试图像本身特征对人脸识别准确度有着直接的影响。
Apr, 2023
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑到的局限与可能的风险。
May, 2023