InsideBias: 深度网络偏差测量与应用于面部性别生物特征识别
利用卷积神经网络的权重分析来检测模型的偏差,本文在使用有色 MNIST 数据库的玩具例子和使用最先进的方法和实验资源进行性别识别的现实案例研究中,发现无需对特定输入进行模型推理,查看权重即可判断模型是否存在偏差。在 MNIST 模型中,我们能够以超过 99% 的准确率检测出是否存在强烈或微弱的偏见,并且还能以超过 70% 的准确率分类四个偏见水平。对于面部模型,我们在区分针对亚洲人、黑人或白人的有偏见模型方面实现了 90% 的准确率。
Sep, 2021
本文提出了一个框架来度量和降低视觉识别任务中与保护变量(例如性别)有关的固有偏差。通过采用对抗性方法来从深度神经网络中去除受保护变量的不想要的特征,我们展示了该方法的有效性,并在两个数据集上进行了实验。实验结果表明,在保持准确性的情况下,本方法减少了性别偏见的放大。
Nov, 2018
利用合成的面部图像研究数据集偏差对深度卷积神经网络的泛化性能的影响,发现数据集偏差对 DCNNs 的泛化性能有着显著的影响,提出的方法允许观察和比较不同 DCNN 架构的泛化性能,同时揭示了当前 DCNN 架构的主要局限性。
Dec, 2017
本文研究基于深度学习技术的面部识别、年龄估计、性别识别和亲属关系验证模型中存在的人口统计学偏差,并通过引入规模最大、最全面的面部图像和视频数据集及手动注释,揭示了基于最先进模型的拟合性能和偏差,最后引入和验证了去偏嵌入网络的方法。
May, 2020
本文研究深度人脸识别网络中的性别偏见,并提出了两种新的度量方法 BFAR 和 BFRR 以评估性别偏见,同时通过浅层神经网络进行后处理,通过最小化公平的 von Mises-Fisher 损失来减少性别歧视。
Oct, 2022
本文分析了深度学习技术中的 “偏见” 问题,针对人脸识别系统进行了人种和年龄偏差的考察,发现深度神经网络也受到社会内外群体效应的影响,存在自身的人种和年龄偏见,并对这种 “偏见” 问题提出了解决方案。
Apr, 2019
最近的研究发现,深度神经网络在许多实际场景中可能表现出偏见。本研究提出了一种快速模型去偏方法(FMD),该方法通过显式的反事实概念识别偏见属性,并使用影响函数量化数据样本的影响,进而设计了一种基于机器遗忘的策略来高效有效地消除模型中的偏见。实验证明,与现有先进方法相比,我们的方法在达到更高或相当的准确性的同时,具有更少的偏见和更低的去偏成本要求。
Oct, 2023
研究发现使用 LSTM 架构训练的语言模型在表示性别时存在动态变化,并且性别信息逐渐局部化。通过监控训练动态,可以检测到女性和男性在输入嵌入中的表示不对称。去除偏见的策略如何应用需要更多深入探讨。
Jul, 2022
本研究提出了使用混合多任务级联卷积神经网络和 FaceNet 嵌入来消除人脸检测模型对不同种族、性别和年龄群体的偏见,并在用户验证的分散化系统中进行模型重训练。
Oct, 2022