AAAIJan, 2022

当位移操作遇上视觉 Transformer:一种极其简单的替代注意力机制的方法

TL;DR本研究研究了注意力机制在视觉 Transformer 中的作用,将其简化为一个名为 ShiftViT 的零参数操作,发现它在分类、检测和分割等任务中表现良好,并且性能与强基线 Swin Transformer 相当甚至更好。