May, 2023

高效ViT: 带级联分组注意力的内存高效视觉Transformer

TL;DR本研究提出一种高速的视觉Transformer模型EfficientViT,通过优化Memory-Hard Self-Attention (MHSA) 和注意力的多样性等方法,提高其内存利用率,加快模型速度,并在速度和准确性之间取得良好的平衡。