Jun, 2021

IA-RED$^2$: 针对 Vision Transformers 的可解释性感知冗余减少

TL;DR本论文提出了一种基于可解释性的冗余缩减框架 (IA-RED$^2$) 来加速计算机视觉中的 transformer 模型,在丢失不到 0.7% 的精度的同时,最大速度提升了 1.4 倍,并且具有可靠的可解释性。