SpectralFormer:基于 Transformer 的高光谱图像分类的重新思考
提出了一种多尺度光谱空间卷积 Transformer (MultiscaleFormer) 用于高光谱图像分类,通过多尺度空间补丁和光谱表示来捕捉多尺度光谱空间信息,并通过改进的光谱空间 CAF 模块进行信息融合,取得了优于大部分其他架构的分类性能。
Oct, 2023
HPFormer 是一种基于 Transformer 的新方法,利用其强大的表示学习能力来提高视觉跟踪性能,并通过 Hyperspectral Hybrid Attention(HHA)模块实现特征提取和融合,以及通过 Transform Band Module (TBM) 从完整的高光谱输入中选择性地聚合空间细节和光谱特征来注入有信息的目标表示,通过在基准 NIR 和 VIS 跟踪数据集上进行的广泛实验表明,HPFormer 具有最先进的性能,从而提供了利用 Transformer 和高光谱融合来改进鲁棒目标跟踪的新见解。
Aug, 2023
我们提出了一种基于金字塔形式的分层 Transformer 模型 (PyFormer),用于提高高光谱图像分类的处理效率和抽象传播能力。实验结果显示,这种方法在提高传统方法的基础上有着更好的优势,并且通过集成不同层级的输出,进一步增强了鲁棒性和可靠性,从而展示了我们的方法在推动高光谱图像分类方面的潜力。
Apr, 2024
提出了一种名为 SaaFormer 的新型用于处理高光谱图像分类的深度学习模型,采用块状采样方法来减少数据泄露,该模型包含两个主要组成部分:轴向聚合注意力和多级光谱 - 空间提取结构。在六个公开数据集上的结果表明,在块状采样分区时,该模型的性能明显优于其他方法。
Jun, 2023
我们提出了一种基于 3D 卷积引导的光谱 - 空间 Transformer(3D-ConvSST)的高光谱图像分类方法,该方法利用 3D 卷积引导的残差模块(CGRM)在编码器之间来 “融合” 局部空间和光谱信息以增强特征传递,并通过全局平均池化来提取更具有辨别力和相关性的高级特征进行分类。在三个公共高光谱图像数据集上进行了大量实验,证明了所提出模型相比传统的、卷积和 Transformer 模型的优越性。
Apr, 2024
该研究介绍了一种新型模型 Convolutional Meet Transformer Network (CMTNet),它结合了卷积神经网络和 Transformer,在高光谱作物分类中表现出优越性能,通过光谱和空间特征提取模块、双分支结构、多输出约束模块等实现了全局和局部特征提取以及多输出损失计算与交叉约束,显著优于其他现有网络。
Jun, 2024
本文介绍了一种包括两个卷积块、一个 Gate-Shift-Fuse(GSF)块和一个 transformer 块的高光谱图像分类模型,通过在局部特征提取方面利用 CNN 的优势以及在远程上下文建模方面利用 transformer 的优势,该模型提供了对高层语义特征的提取能力。同时,提出了一个强化局部和全局空间 - 光谱特征提取的 GSF 块以及一个有效的注意力机制模块,该方法在四个知名数据集上进行了评估,包括 Indian Pines、Pavia University、WHU-WHU-Hi-LongKou 和 WHU-Hi-HanChuan,结果表明该框架相较于其他模型具有更好的效果。
Jun, 2024
本研究旨在通过将谱层和多头注意力层结合起来提出 Spectformer 架构,该架构的表现优于其他转换器表示形式,特别是在图像识别任务中。
Apr, 2023
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022