BriefGPT.xyz
Ask
alpha
关键词
intra-batch attention
搜索结果 - 1
IBAFormer:用于领域通用的语义分割的批内注意力变换器
通过在 Transformer 网络中增强注意力模块,结合同一批次的其他独立样本信息以提高域广义语义分割(DGSS)的性能,我们的提出的 IBAFormer 方法在 DGSS 中取得了最先进的性能,消融研究进一步证实了每个引入组件的有效性。
PDF
10 months ago
Prev
Next