腹腔镜手术视频仪器的模态分割
该研究描述了他们在MICCAI 2017内窥镜视觉子挑战赛中赢得的机器人工具分割选手冠军的解决方案,该解决方案通过使用几种新颖的深度神经网络架构获得了比现有技术更好的结果来解决机器人手术中的工具语义分割问题。
Mar, 2018
本文介绍了一项比较研究,探讨了在机器人以及传统腹腔镜手术中,基于视觉的不同方法用于器械分割和追踪的效果。研究表明,现代的深度学习方法在器械分割任务中表现优异,但结果还不完美。此外,合并不同方法的结果实际上显著提高了准确性。与此同时,器械追踪任务的结果表明,在传统腹腔镜手术中这仍然是一个待解决的挑战。
May, 2018
本文基于深度学习技术,提出一种轻量级单阶段实例分割模型结合卷积块关注模块的方案,通过数据增强和最优锚定策略进一步提高准确性,实现了对手术器械的实时跟踪和分割,并在 ROBUST-MIS 挑战中取得了44%以上的优异表现。
Nov, 2021
本篇研究提出了一种新的神经网络框架,该框架基于实例分割模型添加分类模块以提高手术工具实例分割的准确性,并采用度量学习技术来处理手术器械类别的低变异性,并在评测数据集上证明了其优越性。
Nov, 2022
该综述文章着重介绍了目前基于纯视觉的、不附加任何标记的单帧和带有时间信息的最小侵入性手术图像中手术工具分割和跟踪方法,重点关注深度学习方法和公开数据集的使用,讨论了存在的不足之处和未来发展的潜能。
Apr, 2023
SurgicalSAM是一种针对显著改善SAM泛化性能的新型端到端高效调优方法,引入了轻量级基于原型的类提示编码器,并提出了对比原型学习以进一步增强类原型的区分力,通过在EndoVis2018和EndoVis2017数据集上进行广泛实验,证明其达到了最先进的性能,仅需要少量可调参数。
Aug, 2023
通过将手术器械结构知识与SAM的通用分割知识集成,我们提出了SP-SAM(手术器械的分割模型),它通过文本提示将器械分解为细粒度部分,并通过选择性融合和分层解码策略将部分级别的表示组合成一个整体,以实现精确的器械分割。在EndoVis2018和EndoVis2017数据集上的广泛实验证明了SP-SAM具有最先进的性能。
Dec, 2023
本研究针对外科图像中的仪器分割问题,提出了一种无监督的方法,通过将视频帧分割视为图划分问题,显著降低了对人工标注的依赖。使用自监督预训练模型提取特征,并通过拉普拉斯矩阵实现有效的分割,不仅在多个数据集上表现优异,还展示了其在临床应用上的潜在影响。
Aug, 2024
本研究解决了现有无监督外科器械分割方法在复杂内镜场景中的有效性和通用性不足的问题。我们提出了一种无标签的无监督模型,采用名为多视图归一化切割器的创新模块,通过图切割损失函数,而不依赖伪标签,显著提高了模型的效果与泛化能力。实验结果表明该方法在多个外科器械分割数据集上表现出色,具备作为预训练模型的巨大潜力。
Nov, 2024
本研究针对传统无监督外科器械分割方法在复杂内窥镜场景中的有效性和泛化能力不足的问题,提出了一种无标签的无监督模型AMNCutter,其中引入了多视角归一化切割器模块。该方法通过图切损失函数结合补丁亲和力进行训练,能够有效整合低层和高层特征,显著提升了模型的性能和通用性。
Nov, 2024