Dec, 2021

SeMask: 用于语义分割的语义掩蔽变形器

TL;DR本文提出了 SeMask 框架,将语义信息嵌入预训练分层 Transformer 模块的编码器中以提高模型性能,并使用轻量级语义解码器进行训练。实验结果表明,嵌入语义先验可以显著提高模型效果,并且与 Swin Transformer 和 Mix Transformer 等模型相结合,达到了 58.25%的 mIoU 表现。