Apr, 2024

再审视视觉语言模型的对抗鲁棒性:一种多模态的观点

TL;DR通过研究视觉语言模型(VLMs)的自适应对抗性鲁棒性,我们引入了一种多模态对抗性攻击策略,并在图像和文本编码器上采用多模态对比对抗性训练损失,以提高CLIP的对抗性鲁棒性。在15个数据集上进行的广泛实验表明,我们的方法显著提高了CLIP的对抗性鲁棒性,甚至在图像攻击的背景下,经过多模态对抗性攻击的模型表现出比仅进行图像攻击微调的模型更高的鲁棒性。