Aug, 2023

深度神经网络的图像边界上的不可察觉对抗攻击

TL;DR通过系统性攻击图像边界提出的一种不可察觉的对抗性攻击方法,有效攻击了六个 CNN 模型和 Vision Transformers,仅使用图像边界的 32% 作为输入,成功率达到 95.2%,峰值信噪比为 41.37 dB,借此可以更深入地理解对抗性样本,并给出了构造对抗性样本的不同视角。