探究肤色标注的主观性对计算机视觉基准数据集的影响
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
介绍了一个新的数据集,包含跨年龄、性别、肤色和环境光条件的多样性,用于帮助研究者评估他们的计算机视觉和音频模型的准确性。此数据集可广泛应用于评估图像、音频等多个领域的应用。
Apr, 2021
本研究分析了图像描述中的社会偏见以及种族偏见,具体关注于COCO数据集中的感知性别和肤色标注等因素。结果表明图像描述模型对于不同肤色的人物的表述、情感和词汇选择存在差异,并发现这种差异在现代模型中更加明显。
Jun, 2021
该研究提出了一个新算法TRUST,通过利用场景图像中与光照有关的信息来解决面部肌肤颜色以及光照的模糊性,并构建了一套面部肌肤颜色评估系统,对测试表明其比现有算法更加准确和公平
May, 2022
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑到的局限与可能的风险。
May, 2023
通过在皮肤病分类图像中考虑皮肤色调差异来解决公平性问题是至关重要的,然而公共数据集中缺乏皮肤色调标签导致无法构建公平的分类器。目前,这些皮肤色调标签的估计是在独立研究中使用个体类型角度(ITA)进行公正性分析之前进行的。本文回顾并比较了四种基于ITA的皮肤色调分类方法在ISIC18数据集上的应用,该数据集是评估皮肤癌分类公平性的常用基准。我们的分析揭示了先前发表的研究中存在较大分歧,从而展示了基于ITA的皮肤色调估计方法存在的风险。此外,我们调查了这些方法之间差异如此之大的原因,并发现ISIC18数据集中缺乏多样性,限制了其作为公平性分析测试平台的使用。最后,我们建议进一步研究鲁棒的ITA估计方法和带有肤色注释的多样性数据集采集,以促进对皮肤科人工智能工具的公平评估。我们的代码可在此https URL访问。
Aug, 2023
计算机视觉模型在性别和肤色等属性方面存在已知的性能差异。本论文提出了一个名为FACET(计算机视觉公平性评估)的新基准,它是一个大型、公开可用的评估集,包括32,000张图片,用于图像分类、目标检测和分割等常见视觉任务。我们通过对FACET中的每张图像进行手动标注,包括感知肤色和发型类型等与人相关的属性,手动绘制边界框,并标记诸如唱片骑师或吉他手等精细的与人相关的类别。我们利用FACET对最先进的视觉模型进行基准测试,并展示潜在的性能差异和挑战。我们的研究结果显示,分类、检测、分割和视觉定位模型在人口属性和属性交叉上存在性能差异。这些伤害表明,在这些视觉任务中,并不是所有的人都能得到公平和公正的对待。我们希望使用我们的基准测试结果能够为更加公平、更加稳健的视觉模型做出贡献。FACET在该https URL上公开可用。
Aug, 2023
皮肤色调度量化作为一种替代性方法,对于在大规模面部识别数据集中缺乏或完全不可用种族标签时,可以用来替代自我报告的种族标签,并提供了隐私保护学习解决方案的使用案例。
Sep, 2023
通过研究肤色对皮肤疾病检测性能的影响以及肤色差异与病变区域之间的色差对恶性检测的作用,我们提出了一种量化色差分数的方法并应用于多种皮肤疾病数据集。观察到高和低色差差异组之间的性能差距,这一差异在各种图像分类模型中一致存在,从而验证了我们的假设。此外,我们还研究了肤色和色差效应之间的相互作用,并提出色差可能是肤色性能偏差的另一个原因。我们的工作为改善皮肤疾病检测提供了一个补充角度。
Jan, 2024