面部分析算法偏见因果基准测试
我们提出了一个实验方法来测量人脸识别系统中的偏见,使用神经人脸生成器生成合成人脸,改变感兴趣的属性而保持其他属性不变,并通过人类观察者提供关于感知身份相似性的真实数据,验证了该方法在种族和性别方面的偏见,同时提供了大规模的合成数据集,可用于相关领域的研究。
Aug, 2023
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
本文提出了用于面部分析的偏差检测 / 估计和减轻算法,并对已提出的偏差检测算法进行了系统综述。其主要贡献是对现有的偏差缓解算法进行了分类和广泛的概述。我们还讨论了偏差面部分析领域中的开放挑战。
Dec, 2021
计算机视觉模型在性别和肤色等属性方面存在已知的性能差异。本论文提出了一个名为 FACET(计算机视觉公平性评估)的新基准,它是一个大型、公开可用的评估集,包括 32,000 张图片,用于图像分类、目标检测和分割等常见视觉任务。我们通过对 FACET 中的每张图像进行手动标注,包括感知肤色和发型类型等与人相关的属性,手动绘制边界框,并标记诸如唱片骑师或吉他手等精细的与人相关的类别。我们利用 FACET 对最先进的视觉模型进行基准测试,并展示潜在的性能差异和挑战。我们的研究结果显示,分类、检测、分割和视觉定位模型在人口属性和属性交叉上存在性能差异。这些伤害表明,在这些视觉任务中,并不是所有的人都能得到公平和公正的对待。我们希望使用我们的基准测试结果能够为更加公平、更加稳健的视觉模型做出贡献。FACET 在该 https URL 上公开可用。
Aug, 2023
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
合成数据在解决处理真实面部数据的伦理和法律挑战中作为真实数据的替代品出现。我们研究了合成面部识别数据集的多样性与真实数据集的对比,以及生成模型的训练数据分布如何影响合成数据的分布。我们还研究了在比较最近三个基于合成数据的面部识别模型与基准模型 (基于真实数据) 在所研究属性上的具体偏差。结果显示,生成器生成的不同属性具有与所使用的训练数据相似的分布。在偏差方面,合成模型与真实模型具有类似的偏差行为。然而,发现较低的内部一致性似乎有助于减少偏差。
Nov, 2023
本研究提出了一种名为图像反事实敏感性分析的框架,利用生成对抗网络建立一个面部图像的真实生成模型,以控制性地操作特定的图像特征,从而发现并检测面部分类器中的偏见和公平性。
Jun, 2019
准确测量在基于机器学习的自动决策系统中的歧视是解决子群体和 / 或个体间公平性的重要问题所必需的。本文关注于在生成和 / 或收集训练数据的方式中出现的一类偏见,我们称之为因果偏见,并使用因果关系领域的工具来正式定义和分析此类偏见。本文考虑了四种来源的偏见,即混杂、选择、测量和交互。本文的主要贡献是为每种偏见提供了一个基于模型参数的闭合表达式。这使得分析每种偏见的行为成为可能,特别是在哪些情况下它们不存在,以及在哪些其他情况下它们被最大化。我们希望提供的特征有助于社会更好地理解机器学习应用中偏见的来源。
Oct, 2023
本文提出了一种通过量化筛选医学图像数据集属性的风险,在确定性和效用之间进行分解的技术,以识别深度学习算法中可能导致偏见的细微因素,并通过通过真实反事实的比较性能证明了其有效性和灵敏度,最后将该方法应用于一种流行的皮肤病变数据集的自然属性中,并演示了其成功。
Apr, 2023