ConvFormer: 提升医学图像分割的即插即用卷积神经网络模型
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022
介绍了一种新的医学图像分割模型 ——nnFormer,利用了 3D Transformer 模型的自注意机制,相比之前的 Transformer 模型在三个公开数据集上都取得了更好的性能。
Sep, 2021
本文提出了一种称为 Dilated Transformer 的方法,该方法在全球和局部范围内交替捕捉成对的补丁关系进行自我关注。我们基于 Dilated Transformer 的设计构建了一种名为 D-Former 的 U 型编码器 - 解码器分层结构,用于 3D 医学图像分割。实验表明,我们的 D-Former 模型在低计算成本下,从头开始训练,优于各种有竞争力的基于 CNN 或 Transformer 的分割模型。
Jan, 2022
本文提出了一种新的医学图像分割混合架构,手持卷积神经网络和 Transformer,用于动态变形卷积和自适应互补注意模块改进卷积神经网络和 Transformer 的性能,以实现更好的医学图像分割结果。
Jun, 2023
提出了一种基于 Transformer 的医学图像分割方法 ——MISSFormer,通过改良的 Transformer 块和上下文桥,结合 CNN 和 Transformer 的优点,在医学图像分割任务上获得了优秀的性能,代码已开源。
Sep, 2021
CFPFormer 是一种新的解码器块,它集成了特征金字塔和变压器,通过利用路径嵌入、跨层特征拼接和高斯注意机制,增强了特征提取能力,并促进了各种任务的泛化。在医学图像分割数据集和物体检测基准测试上,我们的模型取得了优越的性能,特别是在检测小物体方面表现出色。
Apr, 2024
通过引入 Convolutional Transformer 层(ConvFormer)和基于 ConvFormer 的超分辨率网络(CFSR),提出了一种有效且高效的轻量级图像超分辨率任务解决方案,通过使用大卷积核卷积作为特征混合器替代自注意模块,实现了较长范围依赖关系和广泛接受域的建模,同时在计算成本稍微增加的情况下保留了更多高频信息,并且相对于现有的轻量级 SR 方法在计算成本和性能之间取得了先进的平衡。
Jan, 2024
提出一种基于 ScaleFormer 的新型骨干网络,其中包含针对各个尺度的内部转换器,以在每个尺度上提取局部 - 全局提示,并设计了空间感知的跨尺度变换器,以相互作用多个尺度的共识区域,从而突出跨度依赖性并解决复杂的尺度变化。
Jul, 2022
通过融合 transformers 和 CNNs,我们提出了一种混合架构用于医学图像分割,旨在克服 CNNs 在捕捉全局依赖性和局部空间细节方面的局限性。我们通过比较各种架构和配置,并进行多次实验来评估它们的有效性。
Jan, 2024
SegFormer3D 是一种记忆高效的分层 Transformer,在 3D 医学图像分割中拥有比当前最先进模型更少的参数和更低的 GFLOPS,并在 Synapse、BRaTs 和 ACDC 等广泛使用的数据集上取得竞争性结果。
Apr, 2024