理解偏见需真正均衡的数据集?影响准确性的因素并非身份和图像数量
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
本研究构建了一个包含 108,501 张图像的人脸图像数据集,强调数据集的平衡种族构成,通过对基于此数据集训练模型和评估性能的实验,发现模型的准确性较高且与种族和性别无关。
Aug, 2019
这篇论文探讨了人脸识别技术的偏见和种族主义问题,分析了测试数据、训练数据和图像本身特征等多个因素对人脸识别准确度的影响。研究发现,测试图像本身特征对人脸识别准确度有着直接的影响。
Apr, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
今篇文章探讨了针对面部识别中的种族偏见问题,当前大多数方法都试图在训练过程中纠正模型中的偏见,但忽略了数据集自身所带来的种族偏见,作者实验证明,在训练中仅使用非洲面孔甚至比同等比例使用不同面孔更具公平性,并添加更多图像以提高准确性。
Sep, 2021
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
该研究论文探讨了一种根据样式生成对抗网络(StyleGAN)潜在空间的简单方法,用于生成平衡且可能无偏差的合成数据集,以用于训练、规范化或评估基于深度学习的人脸识别模型,并证明了可以有效地合成任何组合的人口统计学群体。
Sep, 2023