Jan, 2022
Lawin Transformer:通过大窗口注意力提高多尺度表示的语义分割 Transformer
Lawin Transformer: Improving Semantic Segmentation Transformer with Multi-Scale Representations via Large Window Attention
Haotian Yan, Chuang Zhang, Ming Wu
TL;DR本文通过引入窗口关注机制和金字塔池化等方法,成功将多尺度表征引入语义分割 ViT 中,进一步提高了性能和效率。研究结果表明,该模型具有更高的效率和更好的表现,并在 Cityscapes、ADE20K 和 COCO-Stuff 数据集上,取得了新的最优性能。