混合公平适配器:通过混合公平适配器实现面部识别的终极公平
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
该研究提出了一种新颖的无监督公平得分归一化方法,用于减少面部识别中的偏见,并导致显着的总体性能提升。实验结果表明,这种方法可以降低性别等群体的偏见,并且相比现有方法更加一致地减少了这种偏见,同时也可以增强总体性能。
Feb, 2020
本文研究了人脸表情识别中的偏见与公平性问题,并对三种不同的方法在两个不同数据集上进行了比较,结果表明,使用数据增强的属性感知方法和解缠方法比基线方法更具准确性和公平性,在减轻人口统计学偏见方面,解缠方法是最好的选择。
Jul, 2020
通过采用核均值收缩估计器来提高情绪识别模型的公平性,我们首次分析了吸引力作为一种重要的敏感属性,并通过 CelebA 和 RAF-DB 两个广泛使用的数据集上的实验证明了我们的方法的有效性。
Jun, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
计算机视觉模型在性别和肤色等属性方面存在已知的性能差异。本论文提出了一个名为 FACET(计算机视觉公平性评估)的新基准,它是一个大型、公开可用的评估集,包括 32,000 张图片,用于图像分类、目标检测和分割等常见视觉任务。我们通过对 FACET 中的每张图像进行手动标注,包括感知肤色和发型类型等与人相关的属性,手动绘制边界框,并标记诸如唱片骑师或吉他手等精细的与人相关的类别。我们利用 FACET 对最先进的视觉模型进行基准测试,并展示潜在的性能差异和挑战。我们的研究结果显示,分类、检测、分割和视觉定位模型在人口属性和属性交叉上存在性能差异。这些伤害表明,在这些视觉任务中,并不是所有的人都能得到公平和公正的对待。我们希望使用我们的基准测试结果能够为更加公平、更加稳健的视觉模型做出贡献。FACET 在该 https URL 上公开可用。
Aug, 2023
本研究提出了一种新的度量方法,用于评估多类多人口统计分类问题中面部表情识别中的代表性和刻板印象偏见以及训练模型的残余偏见。这些度量结合在一起,可以用于研究和比较不同的偏见缓解方法。在对 Affectnet 数据集进行分析后,我们发现其中存在巨大的种族偏见和性别定型,并提供了不同人口统计属性的不同子集来训练模型。
May, 2022
旨在学习公平的面部表征,使用自适应卷积核和注意机制对不同人群的面部特征进行分类,提出了自适应模块来激活区分不同人口属性的脸部区域并减轻识别偏差,提出了新的去偏差损失函数,大量实验证明该方法能够有效减轻面部识别偏差。
Jun, 2020
本文讨论人脸识别准确率差异的问题,指出虽然许多数据集都平衡了各个人群中身份的数量和图像的数量,但身份和图像数量并不是影响一对一人脸匹配准确性的决定因素,因此需要一个更具有偏差意识的工具包来创建跨人群的平衡评估数据集。
Apr, 2023