ColonFormer:一种高效的基于 Transformer 的结肠息肉分割方法
本文介绍了一种新型的编码器 - 解码器结构的 LAPFormer 模型,使用分层 Transformer 编码器来提取全局特征,并结合了用于捕获息肉局部外观的 CNN 解码器,包括渐进特征融合模块,特征细化模块和特征选择模块来处理特征,模型在多个息肉分割数据集上进行测试表现良好。
Oct, 2022
本文介绍了一种用于医学图像分割的新型深度学习模型 SSFormer,该模型使用了金字塔 Transformer 编码器来改进模型的泛化能力,提高了模型的学习和推广表现。
Mar, 2022
我们提出了一种新的体系结构,结合了 transformer 和全卷积分支,以实现大尺寸结肠镜图像的自动分割,具有先进的性能和更好的泛化能力,适用于肠镜检查中早期检测肠癌的应用。
Aug, 2022
基于混合原则,结合 CNN 和 Transformer,我们提出了一种名为 MugenNet 的结构用于结直肠息肉图像分割,实验证明 MugenNet 比仅使用 CNN 的模型在处理速度和准确度上显著提高。
Mar, 2024
本研究提出了使用 Meta-Former 与 UNet 的融合模型,并引入多尺度上采样块与级联组合以提高纹理,并提出 Convformer 块增强局部特征,以实现医学分割的全局信息、局部信息和边界信息等敏感点的更好决策。该模型在 CVC-300 数据集、Kvasir、CVC-ColonDB 数据集上取得了领先水平的表现。
May, 2023
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022
本研究提出一种名为 Fusion-Transformer-HardNetMSEG (Fu-TransHNet) 的混合网络,通过多种深度学习机制融合和多视角协作学习技术提高结肠息肉的分割精度。富 - TransHNet 利用变压器和 CNN 分支实现全局和局部特征学习,设计了一个融合模块来整合两个分支的特征,利用多视图协作学习技术获取各自权重,结果表明 Fu-TransHNet 网络在五个广泛使用的基准数据集上优于现有方法。
Jan, 2023
我们介绍了一种名为 RTA-Former 的新型网络,其将 transformer 模型作为编码器骨干结构,并在解码器中创新地采用反向注意力(RA)与 transformer 阶段进行增强的边缘分割。实验结果表明 RTA-Former 在五个息肉分割数据集上实现了最先进的(SOTA)性能。RTA-Former 的强大能力有望提高基于 Transformer 的息肉分割的准确性,潜在地带来更好的临床决策和患者结果。我们的代码将在 GitHub 上公开。
Jan, 2024
提出了一种基于 Transformer 的医学图像分割方法 ——MISSFormer,通过改良的 Transformer 块和上下文桥,结合 CNN 和 Transformer 的优点,在医学图像分割任务上获得了优秀的性能,代码已开源。
Sep, 2021
通过构建 CNN 式 Transformer(ConvFormer)来提升更好的注意力收敛,从而获得更好的分割性能。
Sep, 2023