微创癌症手术中腹腔镜探头的感知区域检测
本文介绍了一项比较研究,探讨了在机器人以及传统腹腔镜手术中,基于视觉的不同方法用于器械分割和追踪的效果。研究表明,现代的深度学习方法在器械分割任务中表现优异,但结果还不完美。此外,合并不同方法的结果实际上显著提高了准确性。与此同时,器械追踪任务的结果表明,在传统腹腔镜手术中这仍然是一个待解决的挑战。
May, 2018
该研究提出一种基于双目内窥镜深度估计和光流的深度声明网络,通过减小两个几何损失优化相机姿态估计,并且引入了两个自适应的像素权重映射来平衡贡献,实现在挑战性的内窥镜手术场景中更加鲁棒的相机姿态估计,具有推进微创外科领域相关任务(如SLAM或3D重建)的研究意义。
Apr, 2023
该综述文章着重介绍了目前基于纯视觉的、不附加任何标记的单帧和带有时间信息的最小侵入性手术图像中手术工具分割和跟踪方法,重点关注深度学习方法和公开数据集的使用,讨论了存在的不足之处和未来发展的潜能。
Apr, 2023
本文研究了人工智能系统在手术期间识别腹膜表面转移瘤方面的作用,发现在仿真环境下,深度学习手术辅助系统能够比直接手术更加准确的识别腹膜表面转移瘤,可以在一定程度上降低误识别率并提高手术成功率,但需要在多机构临床环境下进一步研究。
Jun, 2023
为了实现图像引导和医疗介入和手术自动化,对于跟踪和映射组织方法的性能进行量化是至关重要的。我们引入了一种新的标注方法和一个使用该方法的数据集,称为Surgical Tattoos in Infrared (STIR)。STIR使用持久但对可见光谱算法不可见的标签,通过在组织点上标记IR荧光染料,indocyanine green (ICG),然后收集可见光视频剪辑。STIR包括数百个立体视频剪辑,涵盖了体内和体外场景,在IR谱中标记了起始点和终止点。通过引入STIR,我们使用3D和2D端点误差和准确性指标分析了多种基于帧的跟踪方法。
Sep, 2023
基于医生实践指导的立体视觉和机器学习方法,该研究提出一种用于图像引导手术的新型人工智能辅助的腹腔镜测量方法,通过在实验环境中的评估,得到高精度的距离测量,并在具有无纹理区域的挑战性环境中表现出稳健性,为术中和术后测量提供了更精确、安全和高效的解决方案的基础。
Nov, 2023
在腔镜肝切除手术中,增强现实是一种可视化模式,能够帮助医生在腔镜图像上投影肿瘤和嵌入在肝脏内的血管,通过将其映射到术中腔镜图像中,从而实现定位。该研究主要针对2D和3D标志物自动检测和标记,以及3D-2D配准任务进行深入探讨,并提出了当前限制和未来研究方向。
Jan, 2024
本研究针对外科图像中的仪器分割问题,提出了一种无监督的方法,通过将视频帧分割视为图划分问题,显著降低了对人工标注的依赖。使用自监督预训练模型提取特征,并通过拉普拉斯矩阵实现有效的分割,不仅在多个数据集上表现优异,还展示了其在临床应用上的潜在影响。
Aug, 2024