MISSFormer:一种有效的医学图像分割变压器
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022
介绍了一种新的医学图像分割模型 ——nnFormer,利用了 3D Transformer 模型的自注意机制,相比之前的 Transformer 模型在三个公开数据集上都取得了更好的性能。
Sep, 2021
本文提出了一个统一的框架,它由两个体系结构组成,称为 UNetFormer,具有基于 3D Swin 变压器的编码器和卷积神经网络和变压器的解码器。该架构的设计允许在准确性和计算成本之间满足宽范围的权衡要求。使用 CT 图像进行自我监督预训练,使用 Medical Segmentation Decathlon(MSD)数据集进行肝和肝肿瘤分割任务的 Fine-tune 和测试,并使用 MRI 图像的 BraTS 21 数据集进行脑肿瘤分割,并在 Dice 评分方面优于其他方法。
Apr, 2022
我们提出了一种新的变换器解码器 U-MixFormer,基于 U-Net 结构设计的,用于高效的语义分割。通过在编码器和解码器阶段之间利用侧连接作为特征查询,我们的方法与以前的变换器方法有所不同。此外,我们创新地混合来自各个编码器和解码器阶段的分层特征图,形成一个统一的键和值表示,从而产生我们独特的混合注意模块。大量实验证明,U-MixFormer 在各种配置上表现出色,并且在 ADE20K 上使用 MSCAN-T 编码器的 mIoU 比 SegFormer 和 FeedFormer 高出 3.3%。
Dec, 2023
本文提出了一种称为 Dilated Transformer 的方法,该方法在全球和局部范围内交替捕捉成对的补丁关系进行自我关注。我们基于 Dilated Transformer 的设计构建了一种名为 D-Former 的 U 型编码器 - 解码器分层结构,用于 3D 医学图像分割。实验表明,我们的 D-Former 模型在低计算成本下,从头开始训练,优于各种有竞争力的基于 CNN 或 Transformer 的分割模型。
Jan, 2022
通过构建 CNN 式 Transformer(ConvFormer)来提升更好的注意力收敛,从而获得更好的分割性能。
Sep, 2023
SegFormer3D 是一种记忆高效的分层 Transformer,在 3D 医学图像分割中拥有比当前最先进模型更少的参数和更低的 GFLOPS,并在 Synapse、BRaTs 和 ACDC 等广泛使用的数据集上取得竞争性结果。
Apr, 2024
SegFormer 是一种简单、高效而强大的语义分割框架,它将 Transformers 和轻量级的多层感知机解码器统一在一起。我们展示了这种轻量简单设计对提高 Transformers 语义分割效率的关键所在,并为 SegFormer 构建了一系列模型,其中最好的模型 - SegFormer-B5,在 Cityscapes 验证集上达到了 84.0%的 mIoU,显示了出色的零 - shot 鲁棒性。
May, 2021
该研究提出了一种多模态医学 Transformer (mnFormer),用于不完整多模态学习的脑肿瘤分割,并且该方法在 BraTS 2018 数据集上显示出了比现有方法更好的表现。
Jun, 2022
通过融合 transformers 和 CNNs,我们提出了一种混合架构用于医学图像分割,旨在克服 CNNs 在捕捉全局依赖性和局部空间细节方面的局限性。我们通过比较各种架构和配置,并进行多次实验来评估它们的有效性。
Jan, 2024