Jan, 2022
当位移操作遇上视觉Transformer:一种极其简单的替代注意力机制的方法
When Shift Operation Meets Vision Transformer: An Extremely Simple
Alternative to Attention Mechanism
TL;DR本研究研究了注意力机制在视觉Transformer中的作用,将其简化为一个名为ShiftViT的零参数操作,发现它在分类、检测和分割等任务中表现良好,并且性能与强基线Swin Transformer相当甚至更好。