Adversarial Patch 的生成与应用:基于注意力引导特征融合的自然与可迁移性
本文提出了一种基于生成对抗网络(GAN)框架的图像修复方法,该方法利用全局 GAN(G-GAN)架构和 PatchGAN 方法结合进行鉴别器网络的构建,可较好地实现图像贴图的局部连续性和全局特征。经大量评估发现,与最新的现有技术相比,该框架在视觉和数量评估方面均取得了显著的改进。
Mar, 2018
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023
我们提出了一种考虑到人脸识别模型的可迁移性和受害者人脸图像的新型对抗攻击方法 NeRFTAP,在使用 NeRF-based 3D-GAN 生成新视角人脸图像的基础上,引入了样式一致性损失来提高生成的对抗性人脸图像的有效性和自然性。在各种人脸识别模型上的大量实验证明我们的方法相比现有的攻击技术更为优越。我们的研究为提高实际对抗环境中人脸识别系统的稳健性提供了宝贵的见解。
Nov, 2023
本文提出了一种基于可学习掩模和差分进化算法的预处理方法,通过裁剪模型特定区域以提高泛化性和对抗迁移性,可以进一步提高现有方法的攻击成功率,同时提供了在 Imagenet 数据集上的实验支持。
Jun, 2023
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
最近的研究表明,深度神经网络对于对抗性攻击很容易受到攻击,而精心训练的样本或补丁可以欺骗神经网络检测器或人类视觉感知。为了解决这个问题,本文提出了一种名为潜在扩散补丁(LDP)的新型对抗性补丁方法,首先设计了一个预训练的编码器将自然图像压缩到具有关键特征的特征空间,然后使用上述特征空间训练扩散模型,最后通过图像去噪技术探索预训练扩散模型的潜在空间,通过扩散模型的强大的自然能力对补丁和图像进行改进,使它们更容易被人类视觉系统接受。实验结果在数字和物理世界中均表明,LDP 在视觉主观评分上达到了 87.3%,同时仍然保持有效的攻击能力。
Dec, 2023
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021