卷积神经网络架构在人脸混合造假展示攻击中的通用性
本研究提供了一个包含 4 种不同类型的变形攻击的新数据集,并通过基于 OpenCV、FaceMorpher、WebMorph 和生成对抗网络(StyleGAN)的变形攻击实验,评估了现有人脸识别系统的风险程度,其中发现 VGG-Face 虽然与 FaceNet 相比精度较低,但更加抗变形攻击。此外,本文指出了使用 StyleGAN 生成的低级变形攻击对人脸识别系统不构成重大威胁。
Dec, 2020
本文通过基于卷积神经网络的 Inception 和 ResNet 模型在 MSU Mobile Face Spoofing 数据库上的表现,研究了如何应用这些深度学习算法实现面部反欺骗的生物特征访问控制。
May, 2018
本文提出了一种新的差分变形攻击检测框架,使用深度 Siamese 网络,通过比较我们的模型与其他经典和深度学习模型,使用两个不同的变形数据集,VISAPP17 和 MorGAN,我们探索了由对比损失生成的嵌入空间,并使用欧几里得距离、特征差和支持向量机分类器、特征级联和支持向量机分类器三个决策框架。
Dec, 2020
本篇论文讨论了利用真实的人脸图像数据库训练和测试差分变形攻击检测算法的可行性。在进行多个不同后处理之后,使用不同的工具创建了人脸融合图像。通过实验表明,基于深度学习的差分变形攻击检测算法在各种后处理情形下可以实现非常高的检测性能和鲁棒性。
Jan, 2020
本文提出了一种可解释的面部特征提取算法,能够检测真实和变形图像,用于单一变形攻击检测。该方法基于原始图像、形状、纹理、频率和压缩。利用此方法可以开发一个图形用户界面来协助边境警卫人员调查涉嫌的图像。在三种基于地标点的人脸变形方法和基于 StyleGAN 的变形方法上进行随机森林分类器的训练,其中 FRLL 数据库提供了变形图像。用于变形攻击检测,离散余弦变换方法在合成图像上获得了最佳结果,基于地标点的图像特征使用 BSIF 进行检测。
Apr, 2023
本研究提出了一种名为 Ensemble XAI 的新型可视化解释方法,它整合了显著性地图、类激活映射和渐变 - 类激活映射,以提供更全面的可视化解释,用于预测输入是否为伪造的仿制品的深度学习预测模型。通过实验评估,该解释方法可以准确地说明深度学习模型的决策过程。
Apr, 2023
本文提出并实现了一种基于单个卷积神经网络的人脸识别方法,使用残差学习框架和归一化特征计算损失,实验证明在不同数据集上具有较好的泛化性能。
Mar, 2017
本文针对深度神经网络在人脸识别中的鲁棒性进行了研究,分析了深度学习算法的脆弱性,建立了分类器来检测对深度网络中隐藏层的攻击,并提出了多种方法来缓解攻击影响并提高神经网络的鲁棒性。
Feb, 2018
本文提出使用新的生成对抗网络(GAN)- StyleGAN 生成实际高质量、高清晰度人脸混合图像的新框架,并使用 2500 个自己创建的变形脸部图像进行了实验,对基于商用产品和深度学习的人脸识别系统对信任度的威胁进行分析,并在以往的混合攻击检测方案中对 GAN 生成的混合图像和基于基准点的混合图像进行了检测方案的基准测试
Jul, 2020
利用合成的面部图像研究数据集偏差对深度卷积神经网络的泛化性能的影响,发现数据集偏差对 DCNNs 的泛化性能有着显著的影响,提出的方法允许观察和比较不同 DCNN 架构的泛化性能,同时揭示了当前 DCNN 架构的主要局限性。
Dec, 2017