学习可转移攻击
通过学习选择最佳的变换组合以提高对抗传递能力的一种新方法,名为 Learning to Transform (L2T),在实验中展现出优于现有方法的性能,并证实其有效性和实用意义。
May, 2024
本文通过大规模系统的实证研究,探究了云端机器学习服务平台的漏洞和其普遍存在的在深度神经网络中的 “对抗攻击” 问题,发现先前的假设和结论在真实世界环境下不再一致,并指出了对未来研究方向的启示。
Apr, 2022
文章提出了利用历史攻击反馈信息来降低黑盒对抗攻击的查询成本,通过开发一个元学习框架来训练元 Perturbation 生成器,以产生有效的干扰,同时利用模型级对抗可迁移性来训练元生成器,以帮助攻击目标模型。这个框架可以与任何现成的基于查询攻击方法结合使用,以提高攻击性能。
Jan, 2023
通过总结和分析现有研究,我们确定了可以影响 Visual-Language Pre-training 模型上的转移攻击效果的两个因素:跨模态交互和数据多样性。基于这些观察,我们提出了一种新的基于自我增强的转移攻击方法,称为 SA-Attack。我们在 Flickr30K 和 COCO 数据集上的实验证实了我们方法的有效性。
Dec, 2023
本文提出了一种名为自适应图片转换学习器(AITL)的新型结构,该结构将不同的图片转换操作集成到统一的框架中,进一步提高对抗样本的可转移性,实验表明该方法在 ImageNet 上的攻击成功率显著提高。
Nov, 2021
对机器学习模型的黑盒攻击是可能的,即使它们的结构不同。通过生成对抗性样本,并利用受害者模型标记合成训练集,攻击者可以训练出自己的替代模型,并将对抗性样本转移到受害者模型中实施攻击,该方法可以使用新的技术使攻击过程更加有效率,在 Amazon 和 Google 等公司的商业机器学习分类系统中展示了攻击的有效性。
May, 2016
本研究首次详细审查了对抗性攻击的可转移性方面,系统地分类和评估了各种用于增强对抗性攻击可转移性的方法学。同时,本文引入了一个基准框架 TAA-Bench,集成了十种领先的对抗性攻击可转移性方法,为跨不同模型结构的比较分析提供了一种标准化和系统化的平台。通过全面审查,我们描述了每种方法的有效性和限制,并揭示了它们的操作原理和实际效用,旨在成为该领域学者和实践者的基本资源,为对抗性可转移性的复杂领域绘制地图并为未来的探索奠定基础。
Feb, 2024
本文提出了一种名为 Meta Gradient Adversarial Attack(MGAA)的新型结构,采用元学习的思想,插入攻击方法以提高跨模型的传递性,通过缩小白盒和黑盒攻击之间的梯度方向差距来改善黑盒设置下的对抗样本的传递性。在 CIFAR10 和 ImageNet 数据集上的实验结果表明,本文所提出的结构在黑盒和白盒攻击设置方面胜过了现有的最先进方法。
Aug, 2021
本文提出了基于字体的语义转移攻击(TSTA),通过干扰多模态大型语言模型(MLLMs)所捕捉的视觉信息,以在有害词语插入和重要信息保护场景中展现优异性能。
May, 2024
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023