DiffProtect:使用扩散模型生成对抗样本以实现面部隐私保护
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023
本研究提出了一种基于 Adversarial Decoupling Augmentation Framework (ADAF) 的面部隐私保护算法,通过针对图像 - 文本融合模块增强面部隐私保护算法的防御性能,采用多级文本相关增强措施提高对各种攻击者提示的防御稳定性,并在 CelebA-HQ 和 VGGFace2 上进行广泛的实验,证明了 ADAF 比现有算法具有更好的性能。
May, 2023
提出了一种新方法 AdvDiff,使用扩散模型生成无限制的对抗样本,并通过两种新的对抗引导技术在扩散模型的逆生成过程中进行对抗采样,实现了高质量、逼真的对抗样本生成。实验证明,AdvDiff 在攻击性能和生成质量方面优于基于 GAN 的方法。
Jul, 2023
本文提出了一种基于扩散模型的面部隐私保护方法 Diff-Privacy,通过统一匿名化和视觉身份信息隐藏任务,利用多尺度图像反演模块(MSI)和条件嵌入策略实现面部图像的隐私保护。
Sep, 2023
本文评估了使用两种广为人知的敌对生成方法 (BIM and ILLC) 来去识别个人图像的效果,并发现使用几乎不可察觉的敌对扰动来达到高的保护成功率 (抑制识别率) 并不容易。最后,我们发现敌对样本的可转移性受其生成网络的训练参数的影响非常大。
Feb, 2023
本文介绍了一种基于扩散的新型高效 MAD 方法,学习纯粹的真实图像的特征,实现对不同形态的变形攻击的检测。在四个不同数据集上进行了严格的实验,并与现有解决方案进行了比较,结果表明我们的 MAD 模型在所有数据集上都取得了高竞争力的结果。
Jun, 2023
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
本文提出了 DisDiff(Disrupting Diffusion),一种破坏扩散模型输出的新型对抗攻击方法。通过运用 Cross-Attention Erasure 模块来显式 “擦除” 指示的注意力图,并分析扩散模型的采样过程对 PGD 攻击的影响,引入了一种新颖的 Merit Sampling Scheduler 来自适应地调节扰动更新振幅。在两个面部基准和两个常用的提示场景上,我们的 DisDiff 方法在 FDFR 分数上优于现有方法 12.75%,在 ISM 分数上优于现有方法 7.25%。
May, 2024
本研究提出了一种基于对抗特征的面部隐私保护 (AdvFace) 方法,通过在对手模型中生成对抗性的潜在噪声来破坏从对抗性特征到面部图像的映射,生成隐私保护的对抗性特征来防御面部重建攻击。实验表明,AdvFace 在维护面部识别准确性的同时,比目前最先进的面部隐私保护方法更有效地防御重建攻击。
May, 2023