基于二色分离的皮肤反射估计的普适性和应用
本文试图解释商用面部分类服务在性别分类任务中在由皮肤类型和性别所定义的交叉群体中表现不平等的原因。研究发现,皮肤类型不是造成准确率差异的主要原因。相反,实验表明跨族群差异在唇、眼和颧结构上的差异导致准确率的差别,唇和眼彩妆在女性面部中被视为强预测因素,这是性别刻板印象的一种有害传播。
Nov, 2018
本文针对深度人脸识别中的种族偏见问题进行了研究,首先构建了一个名为RFW的专门数据集,验证了四个商业API和四个SOTA算法的种族偏差,并提出了一种使用深度无监督领域自适应的解决方案,并通过“信息最大化自适应网络”(IMAN)将高加索作为源领域,其他种族作为目标领域,对这种偏见进行了缓解。该方法同时在全局层面上对其进行调整以减少领域级别的种族差距,并在聚类级别上学习判别性目标特征。通过在RFW、GBU和IJB-A数据库上进行广泛实验,表明IMAN成功地学习了能够跨不同种族和不同数据库进行良好泛化的功能。
Dec, 2018
分析了面部属性对人脸识别系统的影响,探讨了人口统计学以外的因素如饰品、发型、脸型等在身份验证性能方面的影响,提出了进一步增强人脸识别系统鲁棒性、可解释性和公平性的需求。
Mar, 2021
本文关注人脸检测系统的输出鲁棒性,使用 Amazon Rekognition、Microsoft Azure 和 Google Cloud Platform 三种系统,通过标准和最近发布的学术数据集量化分析它们的鲁棒性,发现较老、男性化、深肤色或光线较暗的人的照片更容易产生错误。
Aug, 2021
本文针对深度人脸识别在肤色判别方面的争议,提出了基于肤色匹配训练数据和学习自适应边距的元学习算法以缓解算法偏差,并提供了 Identity Shades (IDS) 数据库、BUPT-Globalface 以及 BUPT-Balancedface 数据集。实验结果表明,该算法有效缓解了肤色偏差并实现了更加平衡的人脸识别性能。
May, 2022
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑到的局限与可能的风险。
May, 2023
该文研究计算机视觉系统分析人类图像的种族差异,提出用比种族信息更客观的肤色注释来评估公平性能。作者发现当前肤色注释程序存在高度不一致性和不确定性,并且忽略了人类参与者和历史社会背景的地位问题。通过文献综述和注释实验,作者提出了肤色注释作为社会技术项目,并呼吁加强注释过程的设计、分析和文档记录。
May, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
计算机视觉模型在性别和肤色等属性方面存在已知的性能差异。本论文提出了一个名为FACET(计算机视觉公平性评估)的新基准,它是一个大型、公开可用的评估集,包括32,000张图片,用于图像分类、目标检测和分割等常见视觉任务。我们通过对FACET中的每张图像进行手动标注,包括感知肤色和发型类型等与人相关的属性,手动绘制边界框,并标记诸如唱片骑师或吉他手等精细的与人相关的类别。我们利用FACET对最先进的视觉模型进行基准测试,并展示潜在的性能差异和挑战。我们的研究结果显示,分类、检测、分割和视觉定位模型在人口属性和属性交叉上存在性能差异。这些伤害表明,在这些视觉任务中,并不是所有的人都能得到公平和公正的对待。我们希望使用我们的基准测试结果能够为更加公平、更加稳健的视觉模型做出贡献。FACET在该https URL上公开可用。
Aug, 2023