对抗性人脸合成
本研究通过在训练数据中添加微不可见的对抗干扰因素,破坏基于深度神经网络的人脸检测器的质量,从而防止个人受到最近利用 AI 合成的假面孔可能造成的负面社会影响。我们在白盒、灰盒和黑盒环境下描述了攻击方案,并在若干数据集上实证展示了我们的方法破坏最先进的基于 DNN 的人脸检测器的有效性。
Jun, 2019
本研究提出了使用差分随机图像变换的对抗攻击作为 GAN-based Deepfake 的防御方法,同时使用基于集合的方法加强了攻击的鲁棒性。
Jun, 2020
利用图像翻译技术生成无限制的对抗样本,欺骗目标脸部识别系统并通过认证防御,实现了攻击成功率约为 90% 和 80% 的结果,同时保持个体的可识别性和感知逼真度。
May, 2019
利用自编码器潜在空间和主成分分析,本研究分析面部识别系统对抗性示例的脆弱性以及其对最新系统的规避和冒充攻击的潜在影响。尽管结果没有支持最初的假设,但为对抗性示例的生成带来了新的洞见,并开辟了该领域的新的研究方向。
Apr, 2024
通过自动生成对抗性图像的方式,本研究展示了面部认证系统在实际场景中对对抗性图像的脆弱性,并提出 AdvGen 作为一种自动化生成对抗网络来模拟打印和重放攻击,生成可以欺骗最新型 PAD 的对抗性图像,其攻击成功率高达 82.01%。本研究在四个数据集和十个最新型 PAD 上对 AdvGen 进行了广泛测试,并在真实的物理环境中进行了实验证明了攻击的有效性。
Nov, 2023
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023
本文提出一种 Adv-Makeup 统一的对抗人脸生成方法,实现在黑盒环境下的不可察觉和可转移攻击,它使用任务驱动的化妆生成方法和精细的元学习对抗攻击策略,能够在数字和物理环境下生成更为不可察觉的攻击,并显著提高黑盒环境下的攻击成功率。
May, 2021
本研究提出了一种基于对抗特征的面部隐私保护 (AdvFace) 方法,通过在对手模型中生成对抗性的潜在噪声来破坏从对抗性特征到面部图像的映射,生成隐私保护的对抗性特征来防御面部重建攻击。实验表明,AdvFace 在维护面部识别准确性的同时,比目前最先进的面部隐私保护方法更有效地防御重建攻击。
May, 2023
本研究探索了几何扰动对人脸识别系统的影响,并提出了一种快速的地标操纵方法,生成的对抗性人脸具有极高的成功率,并且极其健壮,对最新的防御方法也具有攻击能力,代码链接在文中。
Sep, 2018