SegSTRONG-C: 对非对抗性生成失真具有稳健性的手术工具分割 —— EndoVis'24 挑战
本研究探讨了Segment Anything Model在机器人手术领域的鲁棒性和零样本泛化能力,并发现该模型在利用点基提示和未提示的设置下,对机器人手术仪器的分割效果较差,且在一些复杂的手术场景中无法识别器械。同时,该模型也缺乏足够的鲁棒性,需要进一步进行领域特定的微调。
Apr, 2023
通过引入SegMatch方法,在手术仪器分割中使用半监督学习,减少了对昂贵标注的需求,并在MICCAI仪器分割挑战数据集上展示出性能的提升,超过了全监督学习方法和其他半监督语义分割模型。
Aug, 2023
基于Segment Anything Model(SAM)的语义分割模型在机器人手术领域的鲁棒性、零样本泛化性能等方面进行了实证研究,发现SAM在使用边界框提示时表现出卓越的零样本泛化能力,但在点提示和未提示设置下,对仪器的整体分割困难重重,且在复杂手术场景中无法识别仪器且容易受到各种数据破坏形式的影响。提出的Low-rank Adaptation(LoRA)调整方法结合SAM,形成SurgicalSAM在不使用提示的情况下可以对各个类别的仪器进行遮罩预测,从而说明SAM在手术任务中仍需要进一步的专业领域微调。
Aug, 2023
通过图学习、多模态信息和交叉验证,我们提出了一种新的视觉-运动学图学习框架,精确地对给定的各种手术过程中的手术器械尖端进行分割。
Sep, 2023
准确的工具分割对于计算机辅助程序至关重要。在医学场景中,由于存在伪影和有限的训练数据,这项任务存在挑战。在未见数据上具有普遍性的方法代表了一个有趣的途径,其中零样本分割提供了解决数据限制问题的选项。使用Segment Anything Model(SAM)进行初探性工作表明,基于边界框提示的方法具有显著的零样本普适性,然而基于点的提示导致性能下降,并且在图像破坏的情况下进一步恶化。我们认为,SAM在高度受损图像上进行了过度分割,导致仅考虑单个分割掩码时性能下降,而重叠目标的分割掩码的组合则能产生准确的预测。本文利用SAM生成内窥镜帧的过度分割预测,并使用地面真实工具掩膜分析SAM的结果,当选择最佳的单个掩码作为预测时以及当结合所有与感兴趣对象重叠的各个掩码以获得最终预测掩码时。我们使用合成损坏、强度不同的Endovis18和Endovis17仪器分割数据集以及一种自行创建的现实世界数据集进行分析。将过度分割的掩码组合可提高IoU。此外,在清晰图像上选择最佳单个分割时,得到了具有竞争力的IoU得分。结论:组合的SAM预测结果在一定程度的破坏下显示出了改进的结果和鲁棒性,然而在医学领域实施这些模型需要恰当的提示策略。
Feb, 2024
通过我们的方法,在低质量光流的困境下,从光流直接提取边界、选择性地丢弃质量较差的帧,并使用可变帧率的微调过程,我们在EndoVis2017 VOS数据集和Endovis2017 Challenge数据集上展现了有希望的结果,分别达到了0.75和0.72的平均交并比。我们的研究结果表明,我们的方法可以大大减少临床环境中手动标注的需求,并可能促进新数据集的注释过程。
Mar, 2024
研究通过开发Surgical-DeSAM方法,利用Bounding Box提示和实时机器人手术,实现了实时仪器分割,并在MICCAI手术仪器分割挑战EndoVis 2017和2018数据集上显著改进仪器分割方法的性能。
Apr, 2024
本研究针对机器人辅助手术中的视频分割挑战,探讨了Segment Anything Model (SAM) 2的零样本分割性能及其对现实世界干扰的鲁棒性。通过在MICCAI EndoVis 2017和2018基准数据集上的广泛实验,结果显示,SAM 2在使用边界框提示时超越了最先进的方法,并在1点提示的应用中接近或超过了现有的无提示方法,展示了其在有限提示需求下的潜力。
Aug, 2024
本研究针对外科图像中的仪器分割问题,提出了一种无监督的方法,通过将视频帧分割视为图划分问题,显著降低了对人工标注的依赖。使用自监督预训练模型提取特征,并通过拉普拉斯矩阵实现有效的分割,不仅在多个数据集上表现优异,还展示了其在临床应用上的潜在影响。
Aug, 2024
本研究系统评估了深度学习在机器人辅助手术中对外科器械的识别与分割的应用,填补了这一领域的研究空白。研究发现,先进的深度学习模型显著提升了器械检测与分割的精度和效率,并为外科手术提供了实时指导和客观评估。未来的研究应集中于自动化处理以及扩展深度学习技术在各类手术领域的应用。
Oct, 2024