BriefGPT.xyz
Ask
alpha
关键词
hierarchical vision transformer
搜索结果 - 4
轻量级语义分割的多层特征逐级聚合解码方案
通过多级视觉变换编码器中的多级特征,本文提出了一种新颖的语义分割解码方案,旨在降低计算开销、提高分割准确性,并通过聚合后的语义增强多级特征,从注意力分配的角度保持上下文一致性,大幅降低计算成本。实验结果表明该方案在计算成本上优于现有语义分割
→
PDF
5 months ago
超越自注意力:用于医学图像分割的可变形大卷积核注意力
介绍了一种新的分层视觉 Transformer 网络模型 (D-LKA Net),采用变形大核注意力机制以完全理解体积上下文信息,并在医学图像分割任务上展现出卓越的性能。
PDF
10 months ago
扩张邻域注意力变换器
本文介绍了一种新型 Hierarchical Vision Transformer,Dilated Neighborhood Attention Transformer(DiNAT)及其基于 Dilated Neighborhood Att
→
PDF
2 years ago
面向视觉和语言导航的历史感知多模态 Transformer
通过引入一种历史感知的多模式转换器来将长期历史包含在多模式决策中,以在视觉和语言导航中构建自主的视觉代理,进而通过使用强化学习进一步优化导航策略。
PDF
3 years ago
Prev
Next