Sep, 2023

IBAFormer:用于领域通用的语义分割的批内注意力变换器

TL;DR通过在 Transformer 网络中增强注意力模块,结合同一批次的其他独立样本信息以提高域广义语义分割(DGSS)的性能,我们的提出的 IBAFormer 方法在 DGSS 中取得了最先进的性能,消融研究进一步证实了每个引入组件的有效性。