Jan, 2022

Lawin Transformer:通过大窗口注意力提高多尺度表示的语义分割 Transformer

TL;DR本文通过引入窗口关注机制和金字塔池化等方法,成功将多尺度表征引入语义分割 ViT 中,进一步提高了性能和效率。研究结果表明,该模型具有更高的效率和更好的表现,并在 Cityscapes、ADE20K 和 COCO-Stuff 数据集上,取得了新的最优性能。