利用多对多关系对抗视觉语言对抗性攻击
通过研究视觉语言模型(VLMs)的自适应对抗性鲁棒性,我们引入了一种多模态对抗性攻击策略,并在图像和文本编码器上采用多模态对比对抗性训练损失,以提高 CLIP 的对抗性鲁棒性。在 15 个数据集上进行的广泛实验表明,我们的方法显著提高了 CLIP 的对抗性鲁棒性,甚至在图像攻击的背景下,经过多模态对抗性攻击的模型表现出比仅进行图像攻击微调的模型更高的鲁棒性。
Apr, 2024
通过利用 Text-to-Image 模型根据 Vision-Language Models 生成的标题产生图像,并在特征空间中计算输入图像和生成图像的嵌入相似性以识别对抗样本,我们提出了一个新颖而简单的方法来检测 Vision-Language Models 中的对抗样本,并且经过实证评估,我们的方法表现出比基于图像分类领域的基线方法更好的效果,同时我们还将这种方法扩展到分类任务中,并展示了其适应性和模型不可知性,从理论和实证发现来看,我们的方法对自适应攻击具有很强的韧性,使其成为在真实世界中应对对抗威胁的出色防御机制。
Jun, 2024
本文研究了使用图像和文本扰动生成对黑盒微调模型进行攻击的新的实用任务,提出了 VLAttack 框架,通过融合单模态和多模态层次的图像和文本扰动来生成对抗样本,实验结果表明该框架在各项任务上攻击成功率最高,揭示了预训练 Vision-Language 模型部署中的一个重要盲点。
Oct, 2023
本研究针对视觉 - 语言预训练模型(VLP)的鲁棒性问题进行研究,提出了一种名为协作多模态对抗攻击(Co-Attack)的新型攻击方法,以获得对不同视觉 - 语言下游任务和 VLP 模型的更好攻击性能。该研究结果提供了关于 VLP 模型的对抗鲁棒性的新认识,为其在更多实际场景中的安全可靠部署做出了贡献。
Jun, 2022
通过利用模态交互机制,我们提出了一种名为 CMI-Attack 的新型攻击方法,在保持语义不变的同时,利用嵌入指导和交互增强攻击文本的嵌入层,并利用交互图像梯度增强对文本和图像的扰动约束。在 Flickr30K 数据集的图像 - 文本检索任务中,CMI-Attack 相对于现有方法提高了 ALBEF、TCL、CLIP_ViT 和 CLIP_CNN 的转移成功率 8.11%-16.75%。此外,CMI-Attack 在跨任务泛化情景中也表现出卓越性能,填补了 Vision-Language 预训练模型转移攻击领域的研究空白,揭示了模态交互对增强对抗鲁棒性的重要性。
Mar, 2024
基于视觉 - 语言预训练的模型 (VLP) 展示了在处理图像和文本方面的令人印象深刻的能力,然而它们容易受到多模态对抗样本的攻击。本研究通过探索数据增强和图像 - 文本模态交互之间的最佳对齐问题,提出了一种基于最优输运理论的对抗性攻击方法,命名为 OT-Attack,以有效地对抗过拟合问题,并在图像 - 文本匹配任务中的各种网络架构和数据集中进行的广泛实验显示,OT-Attack 在对抗性可迁移性方面优于现有的最先进方法。
Dec, 2023
通过限制数据和提供对抗文本监督,提出了一种少样本对抗提示框架,该框架在提高对抗鲁棒性方面表现出卓越的能力,并在仅使用 1%的训练数据时,达到了与最先进的零样本对抗鲁棒性相匹配的水平。
Mar, 2024
通过多模态对抗性示例的多样性扩展交叉区域以增强转移性,本研究提出在优化过程中引导选择文本对抗性示例,并将对抗性文本引导从最后的交叉区域沿着优化路径偏离,以改善各种 VLP 模型和下游视觉 - 语言任务的转移性。
Mar, 2024
在这篇论文中,提出了一种多功能的防御方法,只需要训练一个模型就能有效抵抗各种未知的对抗性攻击,并且该模型的分类准确率平均提高至 86%,表现比之前研究中提出的其他防御方法更好。在面对 PGD 攻击和 MI-FGSM 攻击时,多功能防御模型甚至超过了基于这两种攻击训练的特定攻击模型,并且鲁棒性检查显示我们的多功能防御模型在攻击强度下表现稳定。
Mar, 2024