- 排版引领语义多元化:跨多模态大型语言模型的对抗传递增强
本文提出了基于字体的语义转移攻击(TSTA),通过干扰多模态大型语言模型(MLLMs)所捕捉的视觉信息,以在有害词语插入和重要信息保护场景中展现优异性能。
- CVPR学习动态转化以提高对抗迁移性能
通过学习选择最佳的变换组合以提高对抗传递能力的一种新方法,名为 Learning to Transform (L2T),在实验中展现出优于现有方法的性能,并证实其有效性和实用意义。
- 基于硬标签的小样本黑盒对抗攻击
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
- 对抗性样本汤:多个对抗性样本的平均改善了可转移性而不增加额外生成时间
通过细调超参数,生成不同的批次对抗性样本并取平均的方法可以提高对抗性迁移性,并且相比传统方法没有额外的生成时间和计算成本,与现有的基于迁移的方法相结合可以生成更具迁移性的对抗性样本,通过在 ImageNet 数据集上进行的大量实验表明,我们 - 从对抗可转移性的视角探索潜在扩散模型的对抗攻击
通过对代理模型属性的调查,从对抗迁移的角度出发,我们发现选择更平滑的代理模型能够显著提高基于蒙特卡罗的对抗样本的性能,同时通过理论分析解释了为什么平滑的代理模型也可以增强潜在扩散模型的对抗样本。
- 增强对抗样本鲁棒性的随机加密模型集合
本文提出了一种随机集成加密 ViT 模型的方法,该方法对于黑盒攻击和白盒攻击都比传统方法更具鲁棒性。
- AAAI面向可迁移的对抗攻击与集中扰动
在频率域中进行细粒度扰动优化的可传递对抗攻击方法能够增强攻击传递性,有效绕过各种防御措施。
- 重新思考 Mixup 以提高对抗性可迁移性
提出了一种基于输入转换的新攻击称为 MIST,通过将输入图像与随机平移的图像进行随机混合,并分离每个混合图像的损失项的梯度来对抗不准确的梯度,通过在每个输入样本上计算多个混合图像的梯度,MIST 在 ImageNet 数据集上的实验证明在卷 - 稳定扩散提高对抗转移性
该研究探讨了使用 Stable Diffusion 生成的数据来增强对抗攻击的传递性,提出了一种基于 Stable Diffusion 的新型攻击方法,并提供了一个快速变体,通过实验证明该方法在对抗性传递性方面优于现有方法,并且与现有的基于 - EMNLPCT-GAT: 基于迁移能力的跨任务生成对抗性攻击
我们提出了一种新颖的方法,通过提取不同任务间可转移的特征,直接构建对抗样本,并利用这些特征生成适用于不同任务的对抗样本,在十个不同数据集上的实验结果表明,我们的方法在攻击性能上取得了卓越的表现,并且成本较小。
- ICCV集合级指导攻击:增强视觉 - 语言预训练模型的对抗迁移能力
通过对最近的 VLP 模型的对抗性传递性进行第一次研究,我们观察到现有方法在传递性方面表现较低,这部分原因是由于对跨模态交互的利用不足。因此,我们提出了一种高传递性的集合级引导攻击(SGA)方法,该方法充分利用模态交互,并结合保留对齐的增强 - 生成可传递对抗样本的常识学习
本文研究黑盒攻击的一种重要类型 —— 基于转移的对抗攻击,并提出了一种通用知识学习框架,通过构建多教师框架来减少模型特定特征,获得更好的输出分布,加强对抗转移性能,同时通过对学生和教师模型之间的梯度施加约束来进一步缓解输出不一致问题和增强对 - 可学习的局部掩模提升对抗迁移能力
本文提出了一种基于可学习掩模和差分进化算法的预处理方法,通过裁剪模型特定区域以提高泛化性和对抗迁移性,可以进一步提高现有方法的攻击成功率,同时提供了在 Imagenet 数据集上的实验支持。
- 重新思考针对对抗迁移的反向传播
本文提出了一种新方法,即 Backward Propagation Attack(BPA),以增强与输入图像相关的梯度和损失函数之间的关联性,从而生成更具有传递性的对抗性样本,这在提高对真实世界应用的攻击中有很大的潜力。
- 通过达到平坦的局部最大值提高对抗迁移性
本文提出一种新方法来生成攻击模型的对抗样本,该方法结合了平稳局部区域和梯度规范化来获得更好的迁移性,实验结果在 ImageNet 兼容数据集上表明此方法比现有的攻击方法能够更好地提高模型的迁移性。
- 基于显著属性的人脸识别语义对抗攻击
本研究提出了一种新的语义对抗攻击方法 SAA-StarGAN,该方法基于余弦相似度或概率分数预测最重要的面部属性,并改变这些面部属性来进行对抗攻击。实验证明,该方法能够生成多样化和逼真的对抗性面部图像,并能够显著地提高对抗性样本的可迁移性。
- 元学习通用黑盒对抗攻击
文章提出了利用历史攻击反馈信息来降低黑盒对抗攻击的查询成本,通过开发一个元学习框架来训练元 Perturbation 生成器,以产生有效的干扰,同时利用模型级对抗可迁移性来训练元生成器,以帮助攻击目标模型。这个框架可以与任何现成的基于查询攻 - COLINGLearn2Weight: 相似领域对抗攻击下的参数调适
提出一种新的黑盒 NLP 对抗攻击,攻击者可以选择类似的领域并将对抗性样本转移到目标领域,本文提出学习调整目标模型权重的防御策略 ——Learn2Weight,证明其对 Amazon 多领域情感分类数据集等攻击效果优于传统防御方法。
- CVPR随机方差减少的集合对抗攻击用于提高对抗传递能力
本文提出了一种名为随机方差降低集成攻击的黑盒攻击方法,旨在减少集成模型的梯度方差,展现出更高的对抗转移性,并在 ImageNet 数据集上达到了显著的优越性能提升。
- 增强动量提升对抗转移能力
本文提出了一种增强的动量迭代梯度法,通过将先前迭代中梯度方向的数据点采样的平均梯度积累,稳定更新方向并逃离局部最大值,有效提高了动量迭代梯度法的对抗迁移性能,进一步结合各种输入转换方法可显著提升对抗迁移性能,实验证明平均提高 11.1%。同