Dec, 2021

MIA-Former: 多粒度输入适应的高效和鲁棒视觉 Transformer

TL;DR本文提出了一种多粒度输入自适应 Transformer 框架 MIA-Former,可以在多个粒度上调整 ViTs 的结构以适应输入图像的不同难度,并且具有改进对抗攻击鲁棒性的效果。经过实验验证,MIA-Former 能够有效地分配计算资源,并取得与 SOTA 动态 Transformer 模型相比甚至更高的准确率和更低的计算复杂度。