自采样元 SAM:用元学习增强少样本医学图像分割
本文介绍了一种利用有限数量的样本来对 Segment Anything Model (SAM) 进行微调的高效实用方法,以适用于医学领域,经实证研究表明 SAM 在医学领域即使只有少量标记数据也能有效对齐,通过在脑肿瘤分割(BraTS)和多器官 CT 分割(Synapse)实验中的综合结果,验证了这种方法的可行性和有效性,为 SAM 在医学领域的实际应用铺平了道路。
Aug, 2023
MedSAM 是第一次尝试将 SAM 的成功延伸到医学图像中,通过构建一个包含超过 200,000 个掩膜的大规模医学图像数据集,并开发了一种简单的微调方法,以适应普通医学图像分割,在 21 个 3D 分割任务和 9 个 2D 分割任务的全面实验中,展示了超过默认 SAM 模型的平均 Dice 相似系数 (DSC) 分别达到了 22.5% 和 17.6 %。
Apr, 2023
SAM 在医学图像分析中应用的能力较弱,但在交互式医学图像分割领域是一个有力的注释工具。
Apr, 2023
采用模拟用户交互生成候选掩码并使用新的聚合方法输出最兼容的掩码,Simulated Interaction for Segment Anything Model (SimSAM) 在医学图像中展示出较零射击方法有着更高的分割准确性。
Jun, 2024
通过将 Segment Anything Model (SAM) 的伪标签作为辅助来增强半监督医学图像分割的学习过程,能够显著提升现有的半监督框架在极为有限的标注图像情况下的性能。
Dec, 2023
SAM 模型为基础,通过 SAM^{assist} 和 SAM^{auto} 两个子模块,提出了 SAM^{Med} 框架,无需大量标记即可实现精准的医学图像分割。
Jul, 2023
引入了名为 MA-SAM 的适用于各种体积和视频医学数据的模态无关 SAM 适应框架,通过在图像编码器的转换器块中注入一系列的 3D 适配器,使预训练的 2D 主干从输入数据中提取第三维信息。在四个医学图像分割任务上,使用了 CT、MRI 和外科手术视频数据的 10 个公共数据集进行全面评估,结果显示,我们的方法在不使用任何提示的情况下,始终表现优于各种最先进的三维方法,在 CT 多器官分割、MRI 前列腺分割和外科手术场景分割的 Dice 指标上分别超过 nnU-Net 0.9%、2.6% 和 9.9%。在使用提示时,我们的模型也表现出强大的泛化能力,并在具有挑战性的肿瘤分割任务中表现出色。
Sep, 2023
通过对 SAM 的嵌入空间进行自我提示,我们提出了一种在医学视觉应用中自我提示的新视角,通过一个简单而有效的线性像素分类器,保留了大模型的编码能力、其解码器的上下文信息,并利用其互动性,我们在多个数据集上取得了竞争性的结果(与使用少量图像微调掩模解码器相比,改进超过 15%)
Aug, 2023
本论文提出了一种结合连续表示和 SAM 的方法 I-MedSAM,用于医学图像分割,通过使用隐式神经表示训练一个隐式分割解码器,以获得更好的跨领域能力和准确的边界描绘。
Nov, 2023