Dec, 2021
MIA-Former: 多粒度输入适应的高效和鲁棒视觉 Transformer
MIA-Former: Efficient and Robust Vision Transformers via Multi-grained Input-Adaptation
Zhongzhi Yu, Yonggan Fu, Sicheng Li, Chaojian Li, Yingyan Lin
TL;DR本文提出了一种多粒度输入自适应 Transformer 框架 MIA-Former,可以在多个粒度上调整 ViTs 的结构以适应输入图像的不同难度,并且具有改进对抗攻击鲁棒性的效果。经过实验验证,MIA-Former 能够有效地分配计算资源,并取得与 SOTA 动态 Transformer 模型相比甚至更高的准确率和更低的计算复杂度。