同时对人脸识别系统和人脸反欺骗模型进行对抗攻击,通过样式对齐的分布偏差、实例风格对齐和梯度一致性维护模块,提高对黑盒攻击的容量,通过大量实验表明该攻击方法优于现有的对抗攻击方法。
May, 2024
本研究探究了配备口罩检测器的现代人脸识别系统在大规模戴口罩时的潜在漏洞,并提出了一种新的任务 —— 生成逼真的对抗性口罩面孔以欺骗两个系统,经过实验后发现对近期的深度学习人脸识别系统来说具有破坏性。
Jan, 2022
利用自编码器潜在空间和主成分分析,本研究分析面部识别系统对抗性示例的脆弱性以及其对最新系统的规避和冒充攻击的潜在影响。尽管结果没有支持最初的假设,但为对抗性示例的生成带来了新的洞见,并开辟了该领域的新的研究方向。
Apr, 2024
本文使用基于深度学习的对抗光投影攻击系统在人脸识别领域进行了实时物理攻击的实验,证实了人脸识别系统在白盒和黑盒攻击设置下均易受到对抗攻击的威胁。
Mar, 2020
确保人脸识别系统对抗攻击的可靠性需要部署人脸反欺骗技术。尽管在这个领域取得了相当大的进展,但即使是最先进的方法也难以防御对抗性样本。为了克服这些挑战,我们深入探讨对抗检测与人脸反欺骗之间的关系,并基于此提出了一种强大的人脸反欺骗框架,即 AdvFAS,利用两个耦合分数准确区分正确检测和错误检测的人脸图像。广泛的实验证明了我们的框架在各种设置下的有效性,包括不同的攻击、数据集和骨干网络,同时在清晰的示例上具有高精度。此外,我们成功地将该方法应用于检测真实世界的对抗样本。
Aug, 2023
该研究论文通过深度神经网络模型实现人脸验证,并研究了人脸验证系统所遭受的对抗攻击,提出了 DodgePersonation Attack 及其相关分类,以及一种名为 ''One Face to Rule Them All'' Attack 的攻击方法来欺骗人脸验证系统。
Sep, 2023
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
本文提出了一种基于随机贴片的防御策略来检测人脸识别系统的物理攻击,该方法相较深度神经网络在检测攻击方面具有更好的鲁棒性。实验结果表明该方法在检测白盒攻击和自适应攻击方面的性能均优于传统防御方法,并且其易于实现,可推广至其他防御方法以提高检测性能。
Apr, 2023
本文研究了面部识别系统的真实世界攻击问题,提出了一种可以产生对抗性贴片的简单方法,通过该方法可以将对抗属性添加到照片中并进行攻击。
Oct, 2019
利用决策导向攻击和频率线索,我们提出了一种新的人脸伪造攻击方法,具有高查询效率和保证图像质量,在 FaceForensics++、CelebDF 和工业 API 上实现了攻击性能的最新突破,同时揭示了人脸伪造检测器的安全问题。
Oct, 2023