ViG-UNet:面向医学图像分割的视觉图神经网络
本文提出了将图像表示为图结构,并介绍了一种新的 Vision GNN(ViG)体系结构,用于提取视觉任务的图级特征。ViG 由 Grapher 模块和 FFN 模块组成,可用于图形聚合、更新图形信息以及节点特征变换。该体系结构在图像识别和目标检测任务方面表现出优异性能,并希望将来的研究能够从中获得启发。
Jun, 2022
通过在 2D TransUNet 体系结构的基础上建立在最先进 nnU-Net 体系结构的基础上,充分探索 Transformers 在编码器和解码器设计中的潜力,我们引入了两个关键组件:1)一个从卷积神经网络(CNN)特征图中令图像块标记化的 Transformer 编码器,从而实现全局上下文的提取;2)一个自适应地利用候选区域和 U-Net 特征之间的交叉注意力进行候选区域的精炼的 Transformer 解码器。我们的研究发现,不同的医学任务受益于不同的体系结构设计。Transformer 编码器在多器官分割中表现出色,其中器官之间的关系至关重要。另一方面,Transformer 解码器在处理小而具有挑战性的分割目标(如肿瘤分割)方面更有益处。大量实验证明了将基于 Transformer 的编码器和解码器集成到 U 型医学图像分割体系结构中的巨大潜力。TransUNet 在各种医学应用中超越竞争对手。
Oct, 2023
基于 Vision Mamba 架构的 ViM-UNet 是一种新颖的分割架构,与 UNet 和 UNETR 相比,在两个具有挑战性的显微镜实例分割任务中表现相似或更好,同时更加高效。
Apr, 2024
本文提出了一种新的医学图像分割框架 TransUNet,它将 Transformers 和 U-Net 结合起来,通过编码全局上下文和恢复本地细节信息来实现更精确的分割,针对不同的医学应用,TransUNet 优于其他竞争方法。
Feb, 2021
该研究提出了 Swin-Unet,一种基于 Transformer 的 Unet 用于医学图像分割,它通过层次 Swin Transformer 与 SHIFT 窗口技术来提取上下文特征,使得该纯 Transformer 的编码解码网络在多器官和心脏分割任务方面表现超越传统的基于卷积和变换的方法。
May, 2021
本文提出了一种新的混合架构,NexToU,用于医学图像分割,其中融合了图神经网络和传统的 CNN、Transformer,表现优于其他最先进结构。
May, 2023
使用图卷积神经网络的图结构消除心脏结构分割的解剖错误,实时预测结构轮廓点,并提出使用 U-Net 和图网络的模型间一致性作为输入和分割质量的预测指标。
Oct, 2023
本文提出了面向图形数据的表示学习的新方法,包括 gPooling 和 gUnpooling,并基于这些方法开发了一种编码器 - 解码器模型 —— 图形 U-Nets,实验结果表明该模型在节点分类和图形分类任务中的性能明显优于先前的模型。
May, 2019
本文介绍一种用于遥感图像分割的简单对比视觉图神经网络(SC-ViG)架构,该架构将图像视为图结构,并通过构建节点屏蔽和边屏蔽图视图来获得最佳的图结构表示,通过引入信息瓶颈理论来最大化任务相关信息,同时最小化任务无关的冗余信息,进而取得了优于当前最先进的遥感图像分割方法的实验结果。
Dec, 2023
通过整合卷积和 Transformer 的优点,提出了一种名为 BRAU-Net++ 的混合 CNN-Transformer 网络,用于精确的医学图像分割任务。该网络通过使用双层路由注意力作为核心构建块来设计层次化编码器 - 解码器结构,以学习全局语义信息并降低计算复杂性。通过在跳跃连接中结合通道 - 空间注意力,最小化局部空间信息损失并放大多尺度特征的全局维度交互。在三个公共基准数据集上进行广泛实验,表明我们提出的方法在几乎所有评估指标上超过了包括其基准:BRAU-Net 在内的其他最先进方法。
Jan, 2024