Dec, 2021

MIA-Former: 多粒度输入适应的高效和鲁棒视觉Transformer

TL;DR本文提出了一种多粒度输入自适应Transformer框架MIA-Former,可以在多个粒度上调整ViTs的结构以适应输入图像的不同难度,并且具有改进对抗攻击鲁棒性的效果。经过实验验证,MIA-Former能够有效地分配计算资源,并取得与SOTA动态Transformer模型相比甚至更高的准确率和更低的计算复杂度。