Mar, 2022
Patch-Fool:Vision Transformer 是否总是对对抗性扰动具有稳健性?
Patch-Fool: Are Vision Transformers Always Robust Against Adversarial
Perturbations?
TL;DR本论文探讨了ViTs和CNNs在面对各种对抗攻击时的鲁棒性及其背后的因素,提出了一种名为Patch-Fool的攻击框架,通过对单个patch进行一系列attention-aware优化技术的攻击来愚弄其self-attention机制,并发现在Patch-Fool攻击下,ViTs不一定比CNNs更具鲁棒性。