商业人脸识别模型是否和学术模型一样存在偏差?
这篇研究论文旨在通过详细的基准测试来检查商业和学术模型的人脸检测问题,特别关注这些系统对于不同身份的人的鲁棒性和公平性的问题,结果发现西方男性、年龄偏大、皮肤较暗和光照条件较差的人更容易受到错误的影响。
Nov, 2022
本文关注人脸检测系统的输出鲁棒性,使用 Amazon Rekognition、Microsoft Azure 和 Google Cloud Platform 三种系统,通过标准和最近发布的学术数据集量化分析它们的鲁棒性,发现较老、男性化、深肤色或光线较暗的人的照片更容易产生错误。
Aug, 2021
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
本文提出了用于面部分析的偏差检测 / 估计和减轻算法,并对已提出的偏差检测算法进行了系统综述。其主要贡献是对现有的偏差缓解算法进行了分类和广泛的概述。我们还讨论了偏差面部分析领域中的开放挑战。
Dec, 2021
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
合成数据在解决处理真实面部数据的伦理和法律挑战中作为真实数据的替代品出现。我们研究了合成面部识别数据集的多样性与真实数据集的对比,以及生成模型的训练数据分布如何影响合成数据的分布。我们还研究了在比较最近三个基于合成数据的面部识别模型与基准模型 (基于真实数据) 在所研究属性上的具体偏差。结果显示,生成器生成的不同属性具有与所使用的训练数据相似的分布。在偏差方面,合成模型与真实模型具有类似的偏差行为。然而,发现较低的内部一致性似乎有助于减少偏差。
Nov, 2023