美妆界中的种族偏见
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑到的局限与可能的风险。
May, 2023
本文提出了用于面部分析的偏差检测 / 估计和减轻算法,并对已提出的偏差检测算法进行了系统综述。其主要贡献是对现有的偏差缓解算法进行了分类和广泛的概述。我们还讨论了偏差面部分析领域中的开放挑战。
Dec, 2021
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
图像模型的嵌入空间已经被证明可以编码一系列的社会偏见,该研究调查了对于视觉转换器(ViT)中出现这些偏见的具体因素,并测量了训练数据、模型架构和训练目标对 ViTs 学习表示中的社会偏见的影响。研究结果表明,基于反事实增强训练的扩散式图像编辑可以缓解偏见,但并不能完全消除;而且,相较于小模型,我们发现大模型的偏见较少,并且使用辨别目标进行训练的模型比使用生成目标进行训练的模型偏见较少。此外,我们观察到学习到的社会偏见存在不一致性,令人惊讶的是,当使用不同的自监督目标在相同数据集上训练时,ViTs 可能表现出相反的偏见。我们的发现揭示了导致社会偏见出现的因素,并提出了基于模型设计选择可以实现相当大程度的公平改善。
Aug, 2023
本研究探讨生成图像模型的表现和评估如何受其训练数据集的种族组成的影响。研究发现,虽然生成的图像的种族组成成功地保存了训练数据的种族组成,但在推理过程中采用的截断技术会加剧数据中的种族不平衡。此外,研究还发现,对于给定种族,注释者倾向于喜欢种族得到良好代表的生成图像。
Sep, 2022
今篇文章探讨了针对面部识别中的种族偏见问题,当前大多数方法都试图在训练过程中纠正模型中的偏见,但忽略了数据集自身所带来的种族偏见,作者实验证明,在训练中仅使用非洲面孔甚至比同等比例使用不同面孔更具公平性,并添加更多图像以提高准确性。
Sep, 2021