DiffAM:基于扩散的面部隐私保护对抗妆容转换
本文提出了一种名为 AMT-GAN 的新型人脸保护方法,旨在构建具有更强的黑盒传递性和更好的视觉质量的对抗性人脸图像,通过引入新的正则化模块以及联合训练策略来解决对抗噪声和化妆品转移中的循环一致性损失之间的冲突,实现攻击能力和视觉变化之间的理想平衡。广泛的实验验证了该方法能够保持较高的视觉质量,同时在 Face ++,Aliyun 和 Microsoft 等商业 FR API 上实现更高的攻击成功率。
Mar, 2022
本文提出了一种 3D 感知的对抗性化妆生成 GAN 模型,旨在提高身份信息遮盖的合成化妆品的质量和可转移性,进而保护人脸不被各种人脸识别模型与商业面部验证 API,如 Face++,百度和阿里云等识别。
Jun, 2023
本文提出一种 Adv-Makeup 统一的对抗人脸生成方法,实现在黑盒环境下的不可察觉和可转移攻击,它使用任务驱动的化妆生成方法和精细的元学习对抗攻击策略,能够在数字和物理环境下生成更为不可察觉的攻击,并显著提高黑盒环境下的攻击成功率。
May, 2021
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023
本文提出了 DMT (Disentangled Makeup Transfer),这是一种统一的生成对抗网络,可实现不同场景的化妆技术转移,它包含了一个身份编码器和一个化妆编码器来解缠非化妆人脸的个人身份和化妆风格,可产生具备高质量和可控功能的化妆转移结果。
Jul, 2019
本研究提出了一种基于 Adversarial Decoupling Augmentation Framework (ADAF) 的面部隐私保护算法,通过针对图像 - 文本融合模块增强面部隐私保护算法的防御性能,采用多级文本相关增强措施提高对各种攻击者提示的防御稳定性,并在 CelebA-HQ 和 VGGFace2 上进行广泛的实验,证明了 ADAF 比现有算法具有更好的性能。
May, 2023
提出了一种基于生成模型的低维流形中的对抗潜在编码来保护面部隐私的方法,该方法利用用户定义的化妆文本提示和保存身份信息的正则化来引导对潜在空间中的对抗编码的搜索,实验结果表明该方法的人脸隐私保护效果优于现有技术。
Jun, 2023
本文研究了扩散模型对于人工智能生成内容,特别是艺术创作的成功,并提出了针对侵权的对抗样本有效性方案。我们探讨了对抗样本的可迁移性问题并利用融合与修改的对抗损失函数明显提高了其可迁移性。实验结果表明我们的方法比现有方法更能生成可迁移且更具有对抗攻击鲁棒性的对抗样本。
May, 2023
本文介绍了一种基于扩散的新型高效 MAD 方法,学习纯粹的真实图像的特征,实现对不同形态的变形攻击的检测。在四个不同数据集上进行了严格的实验,并与现有解决方案进行了比较,结果表明我们的 MAD 模型在所有数据集上都取得了高竞争力的结果。
Jun, 2023