自动提示移动友好的 3D 医学图像分割
本文介绍了一种适用于医学图像分割的、从 2D 到 3D 的 SAM 模型的新颖改进方法,并在 4 个医学数据集上进行了实验,结果表明该方法可以仅通过轻量级的空间适配器有效地捕捉体积医学图像中存在的空间模式。
Jun, 2023
本研究提出了一种综合且可扩展的 3D SAM 模型,名为 CT-SAM3D,用于全身 CT 分割,通过使用一个(几乎)完全标记的 CT 数据集,建立了一个 3D 可提示的分割模型。我们的模型可以有效地响应更高维度的空间提示,通过减少大规模器官的交互提示工作量,以较少的点击提示显著提高了所有以前基于 SAM 的模型的定量性能。
Mar, 2024
提出了 MaskSAM,这是一种适用于医学图像分割的新型无需提示的 SAM 适应框架,通过与 SAM 中的图像编码器结合设计了一个提示生成器,生成一组辅助分类器令牌、辅助二进制掩模和辅助边界框,以解决额外提示的要求,同时利用 3D 深度卷积适配器和 3D 深度 MLP 适配器使预训练的 2D SAM 模型提取 3D 信息并适应 3D 医学图像。我们的方法在 AMOS2022 上取得了最先进的性能,Dice 系数为 90.52%,相比 nnUNet 提高了 2.7%。在 ACDC 和 Synapse 数据集上,我们的方法分别超过了 nnUNet 1.7% 和 1.0%。
Mar, 2024
该研究提出了 SAM-Med3D,对 3D 医学图像进行了全面研究和修正,通过训练在大规模数据集上的全面处理的 3D 体系结构,提供了全面的性能评估。与 SAM 相比,SAM-Med3D 在三维体积医学图像的分割能力和效率上都具有显著的增强。
Oct, 2023
引入了名为 MA-SAM 的适用于各种体积和视频医学数据的模态无关 SAM 适应框架,通过在图像编码器的转换器块中注入一系列的 3D 适配器,使预训练的 2D 主干从输入数据中提取第三维信息。在四个医学图像分割任务上,使用了 CT、MRI 和外科手术视频数据的 10 个公共数据集进行全面评估,结果显示,我们的方法在不使用任何提示的情况下,始终表现优于各种最先进的三维方法,在 CT 多器官分割、MRI 前列腺分割和外科手术场景分割的 Dice 指标上分别超过 nnU-Net 0.9%、2.6% 和 9.9%。在使用提示时,我们的模型也表现出强大的泛化能力,并在具有挑战性的肿瘤分割任务中表现出色。
Sep, 2023
提出了 UR-SAM,一个用于增强自动提示医学图像分割的稳健性和可靠性的不确定性矫正 SAM 框架,通过引入提示增强模块和基于不确定性的矫正模块,提升了 SAM 的分割性能,无需手动提示,对医学图像分割具有高效和广泛的能力。
Nov, 2023
SAM 模型为基础,通过 SAM^{assist} 和 SAM^{auto} 两个子模块,提出了 SAM^{Med} 框架,无需大量标记即可实现精准的医学图像分割。
Jul, 2023
在医学图像分割中,Segment Anything Model (SAM) 的应用受到其在自然图像分割中的良好表现的限制。为此,我们引入了 Slide-SAM,将 SAM 扩展到 3D 医学图像分割中,并通过使用单个切片提示来减少专业人员的负担,实现更高分辨率的训练以实现最优学习结果,并通过充分评估和分析不同特征、解剖结构和器官的 Slide-SAM 在医学图像分割中的表现,证明其具有最先进的 3D 分割性能。
Nov, 2023
本文提出了一种称为 Med SAM Adapter 的方法,它通过将医学特定领域知识与分析模型进行简单而有效的适应技术的集成,将 SAM 模型的强分割能力扩展到医学图像分割,在多种图像模态下优化 19 项医学图像分割任务,并超过各种已有的基于医学图像分割的最新技术,并与全面优化的 MedSAM 相比有不错的性能优势。
Apr, 2023