Nov, 2023

构建强鲁棒性、不可察觉的对抗非授权文本 - 图像扩散合成

TL;DR为了解决文本到图像扩散模型对抗攻击的问题,本研究提出了 MetaCloak 方法,利用元学习框架和附加的转换采样过程来解决双层毒化问题,从而产生可转移和鲁棒的扰动。通过对 VGGFace2 和 CelebA-HQ 数据集的大量实验证明,MetaCloak 优于现有方法,能够在黑盒方式下成功欺骗 Replicate 等在线训练服务,展示了 MetaCloak 在实际场景中的有效性。