Mar, 2021
DeepViT: 朝更深层次的Vision Transformer进发
DeepViT: Towards Deeper Vision Transformer
TL;DR本文发现Vision transformers模型存在attention collapse issue现象,即transformer模型越深层次的注意力权重变得越相似,严重影响模型性能,提出了一种名为Re-attention的有效方法来解决该问题,使得32层的Vision transformers模型在ImageNet数据集的Top-1分类准确率上提高了1.6%。