快速几何扰动对抗人脸
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
本研究通过在训练数据中添加微不可见的对抗干扰因素,破坏基于深度神经网络的人脸检测器的质量,从而防止个人受到最近利用 AI 合成的假面孔可能造成的负面社会影响。我们在白盒、灰盒和黑盒环境下描述了攻击方案,并在若干数据集上实证展示了我们的方法破坏最先进的基于 DNN 的人脸检测器的有效性。
Jun, 2019
本文使用基于深度学习的对抗光投影攻击系统在人脸识别领域进行了实时物理攻击的实验,证实了人脸识别系统在白盒和黑盒攻击设置下均易受到对抗攻击的威胁。
Mar, 2020
本研究使用对抗扰动来增强 Deepfake 图像,欺骗普通 Deepfake 检测器。我们使用 Fast Gradient Sign Method 和 Carlini 和 Wagner L2 范数攻击在黑盒和白盒设置中创建对抗性扰动。我们还探讨了两种深度伪造检测器的改进:1. 李普希茨正则化;2. 深度图像先验(DIP)。
Mar, 2020
该研究论文通过深度神经网络模型实现人脸验证,并研究了人脸验证系统所遭受的对抗攻击,提出了 DodgePersonation Attack 及其相关分类,以及一种名为 ''One Face to Rule Them All'' Attack 的攻击方法来欺骗人脸验证系统。
Sep, 2023
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本文提出了一种新的对抗生成网络(adversarial generator network)求解约束优化问题来产生对抗性样本的策略,该方法经过简单训练后线性扩展的能力很强,可以攻击还未曾见过的新图片,使用此技术针对 Faster R-CNN 人脸检测模型可将原本检测人脸的成功率从 100% 降低到仅 0.5%。
May, 2018