May, 2023

具有分区注意力的双路径 Transformer

TL;DR本文介绍了一种新颖的双重注意机制,包括由卷积神经网络生成的局部注意和由 Vision Transformer 生成的长程注意,提出了一种新的多头分区关注机制(MHPA)来解决计算复杂性和内存占用的问题,并基于此提出了一个分层视觉骨干网络 DualFormer,在多个计算机视觉任务中都取得了比较好的表现。