Dec, 2021
Pale Transformer:一种具有 Pale 形状注意力的通用视觉 Transformer 骨干
Pale Transformer: A General Vision Transformer Backbone with Pale-Shaped Attention
Sitong Wu, Tianyi Wu, Haoru Tan, Guodong Guo
TL;DR本研究提出一种 Pale-Shaped self-Attention(PS-Attention)以及基于此的层次结构的通用视觉 Transformer 骨干,称为 Pale Transformer,通过使用 paleshaped(类似淡色的形状)来实现自我关注,缩减了计算和存储成本,同时在与之前的局部自我关注机制具有相似的计算复杂度下,捕捉了更丰富的上下文信息,并且在 ImageNet-1K,ADE20K 语义分割和 COCO 物体检测 & 实例分割的下游任务中均优于先前的 Transformer 骨干。