AutoSAM:通过重载提示编码器将 SAM 应用于医学图像
提出了 MaskSAM,这是一种适用于医学图像分割的新型无需提示的 SAM 适应框架,通过与 SAM 中的图像编码器结合设计了一个提示生成器,生成一组辅助分类器令牌、辅助二进制掩模和辅助边界框,以解决额外提示的要求,同时利用 3D 深度卷积适配器和 3D 深度 MLP 适配器使预训练的 2D SAM 模型提取 3D 信息并适应 3D 医学图像。我们的方法在 AMOS2022 上取得了最先进的性能,Dice 系数为 90.52%,相比 nnUNet 提高了 2.7%。在 ACDC 和 Synapse 数据集上,我们的方法分别超过了 nnUNet 1.7% 和 1.0%。
Mar, 2024
本文介绍了一种针对医学影像的零样本分割模型 Segment Anything (SAM),通过细调轻量级任务特定的 ViT 预测头来提高其在医学影像数据集上的性能。
Jun, 2023
我们引入了一种新颖的微调框架,通过批处理基于真实掩蔽的边界框引入批量提示策略,以提高 Segment Anything Model 在医学图像上的性能表现和广泛的分割任务中解决医学图像中常见的复杂性和模糊性。
Oct, 2023
通过对 SAM 的嵌入空间进行自我提示,我们提出了一种在医学视觉应用中自我提示的新视角,通过一个简单而有效的线性像素分类器,保留了大模型的编码能力、其解码器的上下文信息,并利用其互动性,我们在多个数据集上取得了竞争性的结果(与使用少量图像微调掩模解码器相比,改进超过 15%)
Aug, 2023
SAM-Med2D 是目前最全面的研究,通过收集和整理公开和私有数据集的约 4.6M 图像和 19.7M 掩膜构建了一个包括不同模态和对象的大规模医学图像分割数据集,并通过包围盒、点和掩膜的综合提示将自然图像分割模型 SAM 应用于医学图像分割,进行了彻底的微调,获得了最佳性能和泛化能力。
Aug, 2023
本文提出了一个基于深度学习技术的医学图像分割模型,该模型改进了 Segment Anything Model (SAM) 并提出了一个新的模型 ——decoupling SAM (DeSAM),通过解耦 mask 的生成和 prompt 嵌入来提高在自动模式下的泛化能力,实验结果表明 DeSAM 方法比之前的最新领域泛化方法的 dice 分数平均提高了 8.96%(从 70.06% 到 79.02%),并且 DeSAM 方法可以在入门级 GPU 上进行训练。
Jun, 2023
介绍了一种用于 3D 多器官 CT 基于分割的新方法,即 AutoSAM Adapter,通过自动提示学习范式来促进 Segment Anything Model(SAM)模型能力向 3D 医学图像分割的转变,从而消除了手动生成提示的需求,并成功将获得的知识传递给其他专门为 3D 医学图像分析量身定制的轻量级模型,实现了在医学图像分割任务上的最先进性能。
Aug, 2023
本文针对 Segment Anything Model(SAM)在医学图像分割领域的 zero-shot 泛化能力进行了研究,并发现模型对于不同数据集和提示的表现会有差异,通过提供适当的提示,如边界框,SAM 的性能显著提高。
Apr, 2023