Dec, 2021

Pale Transformer:一种具有 Pale 形状注意力的通用视觉 Transformer 骨干

TL;DR本研究提出一种 Pale-Shaped self-Attention(PS-Attention)以及基于此的层次结构的通用视觉 Transformer 骨干,称为 Pale Transformer,通过使用 paleshaped(类似淡色的形状)来实现自我关注,缩减了计算和存储成本,同时在与之前的局部自我关注机制具有相似的计算复杂度下,捕捉了更丰富的上下文信息,并且在 ImageNet-1K,ADE20K 语义分割和 COCO 物体检测 & 实例分割的下游任务中均优于先前的 Transformer 骨干。