UN-SAM:通用无提示分割广义细胞核图像
本研究提出了一种新颖的基于提示的框架,包括一个点提示器和一个用于自动核实例分割的段装置模型。通过学习为每个细胞核生成唯一的点提示,并将段装置模型微调为输出相应的细胞核掩模,我们的方法在三个具有挑战性的基准测试上取得了最新的性能。
Nov, 2023
本文针对现有 Prompt 模型在医学图像分割方面的表现较差的问题,将 Prompt-based segmentation 和 UNet 结合起来设计出一种新的医学图像分割模型 ——PromptUNet,并新添了 Supportive Prompts 和 En-face Prompts 等 Prompt 类型,实验结果表明 PromptUNet 在医学图像分割上的精度高于当前主流的 nnUNet、TransUNet、UNetr、MedSegDiff 和 MSA 等方法。
May, 2023
通过引入改进的像素级图像分割模型 Segment Any Cell (SAC),结合自动生成的实用提示和先进的 Fine-Tuning 技术,在核分割领域实现了优于现有 SOTA 方法的性能提升。
Jan, 2024
本文提出了一个称为 all-in-SAM 的流程,通过将 SAM 用于整个 AI 开发工作流(从注释生成到模型微调),而无需在推理阶段使用手动提示,取代了在推理阶段使用提示的方法,可以在不需要手动提示的情况下更好地完成生物医学图像分割任务,并在公共数据集 Monuseg 上的一个核分割任务中超越了最先进的方法,并且使用弱注释进行 SAM 微调的实验结果表明其性能相对于使用强像素注释数据的方法而言具有竞争力。
Jul, 2023
通过在大规模多样化数据集上进行预训练,SAM 模型是计算机视觉领域针对目标分割任务的第一个可提示的基础模型。本文评估了 SAM 在零样本学习和微调下的核实例分割性能,将其与其他代表性方法在核实例分割中尤其是模型泛化能力的背景下进行比较,并提出使用核实例检测模型来为 SAM 提供核实例的边界框或中心点作为视觉提示,从组织学图像中生成核实例掩模。
Jan, 2024
利用弱监督方法,在细胞分割的任务中使用 Segment Anything 模型(SAM),通过对象检测器的输出作为测试时的提示信息(D-SAM),以及 SAM 作为伪掩膜生成器在训练数据上训练一个独立的分割模型(SAM-S),并通过整数规划的方法协调两组分割掩膜,从而实现更高的性能。在公开的细胞分割数据集上进行了实验,结果显示所有基于 SAM 的解决方案明显优于现有的弱监督图像分割模型,增益在 9-15 个百分点之间。
Nov, 2023
我们引入了一种新颖的微调框架,通过批处理基于真实掩蔽的边界框引入批量提示策略,以提高 Segment Anything Model 在医学图像上的性能表现和广泛的分割任务中解决医学图像中常见的复杂性和模糊性。
Oct, 2023
提出了 UR-SAM,一个用于增强自动提示医学图像分割的稳健性和可靠性的不确定性矫正 SAM 框架,通过引入提示增强模块和基于不确定性的矫正模块,提升了 SAM 的分割性能,无需手动提示,对医学图像分割具有高效和广泛的能力。
Nov, 2023
提出了 MaskSAM,这是一种适用于医学图像分割的新型无需提示的 SAM 适应框架,通过与 SAM 中的图像编码器结合设计了一个提示生成器,生成一组辅助分类器令牌、辅助二进制掩模和辅助边界框,以解决额外提示的要求,同时利用 3D 深度卷积适配器和 3D 深度 MLP 适配器使预训练的 2D SAM 模型提取 3D 信息并适应 3D 医学图像。我们的方法在 AMOS2022 上取得了最先进的性能,Dice 系数为 90.52%,相比 nnUNet 提高了 2.7%。在 ACDC 和 Synapse 数据集上,我们的方法分别超过了 nnUNet 1.7% 和 1.0%。
Mar, 2024