Jun, 2024

一个扰动就足够了:关于生成对抗视觉语言预训练模型的通用对抗扰动

TL;DR我们展示了 Vision-Language Pre-training(VLP)模型对新型的通用对抗扰动(UAP)攻击的脆弱性,并提出了一种基于多模态对齐的 Contrastive-training Perturbation Generator 方法,该方法在各种 VLP 模型和多模态任务中展现出卓越的攻击性能,并表现出出色的黑盒可迁移性。