Jun, 2023

是否需要注意力通道处理设计?Transformer 视觉模型与完全注意力网络稳健性的综合分析

TL;DR本文使用 ImageNet 数据集,比较了全自注意力网络 (FAN) 模型和传统的 Vision Transformers 的强健性,以了解注意力处理设计的作用,并使用白盒攻击和黑盒攻击来研究它们之间的可转移性。