(非) 公平的深度人脸排名中的曝光问题
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023
本文研究基于深度学习技术的面部识别、年龄估计、性别识别和亲属关系验证模型中存在的人口统计学偏差,并通过引入规模最大、最全面的面部图像和视频数据集及手动注释,揭示了基于最先进模型的拟合性能和偏差,最后引入和验证了去偏嵌入网络的方法。
May, 2020
本研究使用包含 6 个不同族裔的 24K 身份的新 DiveFace 数据库进行了面向深度学习的人脸识别的全面研究和性能分析,并证明了流行面孔数据库高度代表性的族群,导致预先训练的深度面部模型具有很强的算法歧视性,该歧视性可以定性地观察到深度模型的特征空间以及在不同族裔群体中应用这些模型时存在的性能差异。
Dec, 2019
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
该研究介绍了三种人脸访问模型,使用深假面替换未经批准的面孔,并提出了适用于此任务的新度量标准,通过在真实数据集和两个合成数据集上测试,证明了该系统的有效性,并对相似性度量、深假面生成器和数据集进行了广泛分析。
Nov, 2022
今篇文章探讨了针对面部识别中的种族偏见问题,当前大多数方法都试图在训练过程中纠正模型中的偏见,但忽略了数据集自身所带来的种族偏见,作者实验证明,在训练中仅使用非洲面孔甚至比同等比例使用不同面孔更具公平性,并添加更多图像以提高准确性。
Sep, 2021
该研究论文探讨了一种根据样式生成对抗网络(StyleGAN)潜在空间的简单方法,用于生成平衡且可能无偏差的合成数据集,以用于训练、规范化或评估基于深度学习的人脸识别模型,并证明了可以有效地合成任何组合的人口统计学群体。
Sep, 2023
分析了面部属性对人脸识别系统的影响,探讨了人口统计学以外的因素如饰品、发型、脸型等在身份验证性能方面的影响,提出了进一步增强人脸识别系统鲁棒性、可解释性和公平性的需求。
Mar, 2021