理解面部图像中不平等的性别分类准确性
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
本篇论文对男女面部识别精度差异进行了深入分析,发现女性识别精度较低的原因是女性的冒名者分布向更高的相似性分数倾斜和女性真实分布向较低的相似性分数倾斜,这种现象的普遍性跨越 African-American、Caucasian 和 Asian 面孔的数据集,即使在将照片子集分别分为中立表情和垂直角度为零时,精度差异也会持续存在。
Jan, 2020
通过实验发现,男女发型有重要差异,尤其是男性胡须会造成不同男性面孔之间的平均外观差异更大,而当基于发型来遮挡面部的数据在性别上平衡后,初始的性别差距在识别准确性上大部分消失,这个结果对未来研究中包含性别差异具有启示意义。
Jun, 2022
这篇论文探讨了人脸识别技术的偏见和种族主义问题,分析了测试数据、训练数据和图像本身特征等多个因素对人脸识别准确度的影响。研究发现,测试图像本身特征对人脸识别准确度有着直接的影响。
Apr, 2023
本文总结了 2020 年 ChaLearn Looking at People Fair Face Recognition and Analysis Challenge 的评测结果和优胜解决方案,并提供了对结果的分析。这个比赛的目的是评估提交算法在其他混淆因素存在时的准确性和性别和肤色方面的偏见。参赛者使用一个不平衡的数据集进行了评估,这模拟了 AI 模型在不平衡数据上训练和评估的真实世界情况。最终该比赛吸引了 151 个参与者,36 个团队进入了最后一轮。其中 10 个团队在实现非常低的偏见指标的同时,超过了 0.999 的 AUC-ROC。参赛者们常用的策略包括面部预处理、数据分布的同质化、使用有偏向性的损失函数和集成模型。前 10 名团队的分析还表明,对于肤色较暗的女性,虚假阳性率较高,同时,佩戴眼镜和年龄较小也会增加虚假阳性率。
Sep, 2020
本文关注人脸检测系统的输出鲁棒性,使用 Amazon Rekognition、Microsoft Azure 和 Google Cloud Platform 三种系统,通过标准和最近发布的学术数据集量化分析它们的鲁棒性,发现较老、男性化、深肤色或光线较暗的人的照片更容易产生错误。
Aug, 2021
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
该研究研究了最新的物体检测系统是否能够在不同肤色的行人中具有公正的预测性能,我们对一个现有的大规模数据集 BDD100K 进行了注释,并提供了两种肤色分组之间性能的深入比较分析,发现时间、遮挡和训练期间重新加权的监督损失对这种预测性别扭曲的影响程度。
Feb, 2019