FairFace: 面部属性数据集,平衡种族、性别和年龄
本文讨论人脸识别准确率差异的问题,指出虽然许多数据集都平衡了各个人群中身份的数量和图像的数量,但身份和图像数量并不是影响一对一人脸匹配准确性的决定因素,因此需要一个更具有偏差意识的工具包来创建跨人群的平衡评估数据集。
Apr, 2023
今篇文章探讨了针对面部识别中的种族偏见问题,当前大多数方法都试图在训练过程中纠正模型中的偏见,但忽略了数据集自身所带来的种族偏见,作者实验证明,在训练中仅使用非洲面孔甚至比同等比例使用不同面孔更具公平性,并添加更多图像以提高准确性。
Sep, 2021
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
本研究提出了一种面部属性检测的方法,即在学习属性检测任务之前学习人口统计信息,从而在性别和种族子群中保持或提高属性检测的准确性。该系统名为 InclusiveFaceNet,通过转移从公开种族和性别身份的数据集中学习到的种族和性别表示来检测面部属性,同时在保留潜在用户人口统计隐私的同时,获得了迄今为止面部属性检测中关于 Faces of the World 和 CelebA 数据集中最佳的报告数字之一。
Dec, 2017
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
计算机视觉模型在性别和肤色等属性方面存在已知的性能差异。本论文提出了一个名为 FACET(计算机视觉公平性评估)的新基准,它是一个大型、公开可用的评估集,包括 32,000 张图片,用于图像分类、目标检测和分割等常见视觉任务。我们通过对 FACET 中的每张图像进行手动标注,包括感知肤色和发型类型等与人相关的属性,手动绘制边界框,并标记诸如唱片骑师或吉他手等精细的与人相关的类别。我们利用 FACET 对最先进的视觉模型进行基准测试,并展示潜在的性能差异和挑战。我们的研究结果显示,分类、检测、分割和视觉定位模型在人口属性和属性交叉上存在性能差异。这些伤害表明,在这些视觉任务中,并不是所有的人都能得到公平和公正的对待。我们希望使用我们的基准测试结果能够为更加公平、更加稳健的视觉模型做出贡献。FACET 在该 https URL 上公开可用。
Aug, 2023
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
本文总结了 2020 年 ChaLearn Looking at People Fair Face Recognition and Analysis Challenge 的评测结果和优胜解决方案,并提供了对结果的分析。这个比赛的目的是评估提交算法在其他混淆因素存在时的准确性和性别和肤色方面的偏见。参赛者使用一个不平衡的数据集进行了评估,这模拟了 AI 模型在不平衡数据上训练和评估的真实世界情况。最终该比赛吸引了 151 个参与者,36 个团队进入了最后一轮。其中 10 个团队在实现非常低的偏见指标的同时,超过了 0.999 的 AUC-ROC。参赛者们常用的策略包括面部预处理、数据分布的同质化、使用有偏向性的损失函数和集成模型。前 10 名团队的分析还表明,对于肤色较暗的女性,虚假阳性率较高,同时,佩戴眼镜和年龄较小也会增加虚假阳性率。
Sep, 2020