SurgicalSAM: 高效可类别提示的手术工具分割
通过将手术器械结构知识与 SAM 的通用分割知识集成,我们提出了 SP-SAM(手术器械的分割模型),它通过文本提示将器械分解为细粒度部分,并通过选择性融合和分层解码策略将部分级别的表示组合成一个整体,以实现精确的器械分割。在 EndoVis2018 和 EndoVis2017 数据集上的广泛实验证明了 SP-SAM 具有最先进的性能。
Dec, 2023
本研究探讨了 Segment Anything Model 在机器人手术领域的鲁棒性和零样本泛化能力,并发现该模型在利用点基提示和未提示的设置下,对机器人手术仪器的分割效果较差,且在一些复杂的手术场景中无法识别器械。同时,该模型也缺乏足够的鲁棒性,需要进一步进行领域特定的微调。
Apr, 2023
研究通过开发 Surgical-DeSAM 方法,利用 Bounding Box 提示和实时机器人手术,实现了实时仪器分割,并在 MICCAI 手术仪器分割挑战 EndoVis 2017 和 2018 数据集上显著改进仪器分割方法的性能。
Apr, 2024
基于 Segment Anything Model(SAM)的语义分割模型在机器人手术领域的鲁棒性、零样本泛化性能等方面进行了实证研究,发现 SAM 在使用边界框提示时表现出卓越的零样本泛化能力,但在点提示和未提示设置下,对仪器的整体分割困难重重,且在复杂手术场景中无法识别仪器且容易受到各种数据破坏形式的影响。提出的 Low-rank Adaptation(LoRA)调整方法结合 SAM,形成 SurgicalSAM 在不使用提示的情况下可以对各个类别的仪器进行遮罩预测,从而说明 SAM 在手术任务中仍需要进一步的专业领域微调。
Aug, 2023
手术场景分析中使用人工智能的分割是一个基本问题。然而,这个领域内固有的数据稀缺性使得为该任务调整传统分割技术变得具有挑战性。因此,我们提出了一种名为 AdaptiveSAM 的改进模型,可以快速有效地适应新的数据集,并可以使用文本提示进行分割,其在各种医学图像数据集上优于当前最先进的方法。
Aug, 2023
准确的工具分割对于计算机辅助程序至关重要。在医学场景中,由于存在伪影和有限的训练数据,这项任务存在挑战。在未见数据上具有普遍性的方法代表了一个有趣的途径,其中零样本分割提供了解决数据限制问题的选项。使用 Segment Anything Model(SAM)进行初探性工作表明,基于边界框提示的方法具有显著的零样本普适性,然而基于点的提示导致性能下降,并且在图像破坏的情况下进一步恶化。我们认为,SAM 在高度受损图像上进行了过度分割,导致仅考虑单个分割掩码时性能下降,而重叠目标的分割掩码的组合则能产生准确的预测。本文利用 SAM 生成内窥镜帧的过度分割预测,并使用地面真实工具掩膜分析 SAM 的结果,当选择最佳的单个掩码作为预测时以及当结合所有与感兴趣对象重叠的各个掩码以获得最终预测掩码时。我们使用合成损坏、强度不同的 Endovis18 和 Endovis17 仪器分割数据集以及一种自行创建的现实世界数据集进行分析。将过度分割的掩码组合可提高 IoU。此外,在清晰图像上选择最佳单个分割时,得到了具有竞争力的 IoU 得分。结论:组合的 SAM 预测结果在一定程度的破坏下显示出了改进的结果和鲁棒性,然而在医学领域实施这些模型需要恰当的提示策略。
Feb, 2024
在这项研究中,我们采用轻量级的 Segment Anything Model (SAM) 变体以满足速度要求,并采用微调技术来增强其在外科手术场景中的泛化能力。我们结合在线点追踪器和经过微调的轻量级 SAM 模型构建了一个新颖的框架,用于外科器械分割。在 EndoVis 2015 数据集上,定量结果超过了半监督视频对象分割方法的最新水平,并且可以在单个 GeForce RTX 4060 GPU 上以超过 25 FPS 的推理速度运行。
Mar, 2024
本文针对 Segment Anything Model(SAM)在医学图像分割领域的 zero-shot 泛化能力进行了研究,并发现模型对于不同数据集和提示的表现会有差异,通过提供适当的提示,如边界框,SAM 的性能显著提高。
Apr, 2023
提出了 MaskSAM,这是一种适用于医学图像分割的新型无需提示的 SAM 适应框架,通过与 SAM 中的图像编码器结合设计了一个提示生成器,生成一组辅助分类器令牌、辅助二进制掩模和辅助边界框,以解决额外提示的要求,同时利用 3D 深度卷积适配器和 3D 深度 MLP 适配器使预训练的 2D SAM 模型提取 3D 信息并适应 3D 医学图像。我们的方法在 AMOS2022 上取得了最先进的性能,Dice 系数为 90.52%,相比 nnUNet 提高了 2.7%。在 ACDC 和 Synapse 数据集上,我们的方法分别超过了 nnUNet 1.7% 和 1.0%。
Mar, 2024