SAGE: 内窥镜中外观和几何先验信息的 SLAM
EndoGSLAM 是一种用于内窥镜手术的高效 SLAM 方法,通过整合高速渲染和组织重建,实现在线相机跟踪和组织重建的 100 帧 / 秒渲染速度,具备优于传统或神经 SLAM 方法的手术过程中可用性和重建质量的平衡。
Mar, 2024
CudaSIFT-SLAM 是首个能够实时处理完整人类结肠镜检测的 V-SLAM 系统,通过使用 SIFT 特征替代 ORB 特征以及更计算密集的暴力匹配算法,成功地解决了 ORB-SLAM3 的限制,并能够在时间上匹配图像以便重定位和地图融合。
May, 2024
本文提出了一种在内窥镜术中进行单目深度估计的方法,该方法利用几何一致性损失和梯度损失来提高重建效果,并使用合成的 RGB-Depth 数据集来捕捉解剖结构上的反射和照明变化,实验结果表明该方法在实现视频 - CT 配准算法的精度要求时,具有优于现有方法的表现。
Apr, 2023
该研究提出一种基于双目内窥镜深度估计和光流的深度声明网络,通过减小两个几何损失优化相机姿态估计,并且引入了两个自适应的像素权重映射来平衡贡献,实现在挑战性的内窥镜手术场景中更加鲁棒的相机姿态估计,具有推进微创外科领域相关任务(如 SLAM 或 3D 重建)的研究意义。
Apr, 2023
本文介绍了 Photo-SLAM,一种具有超级基元地图的创新 SLAM 框架,通过同时利用显式几何特征进行定位和学习隐式光度特征来表示观察环境的纹理信息,以及采用高斯金字塔训练方法逐步学习多级特征以增强逼真的映射性能。实验证明,与当前最先进的 SLAM 系统相比,我们提出的 Photo-SLAM 在线逼真映射的性能显著优于其他系统,如 Replica 数据集中的 PSNR 提高了 30%,渲染速度快了数百倍。此外,Photo-SLAM 可以在像 Jetson AGX Orin 这样的嵌入式平台上实时运行,展示了机器人应用的潜力。
Nov, 2023
基于解剖识别的深度学习方法,通过无监督学习从手术视频中构建手术路径,从而解决内窥镜手术中由于缺乏可区分的纹理和地标以及内窥镜设备的局限性(如有限的视野和光照条件)所带来的定位问题。
May, 2024
本论文提出了一种有效的自监督训练方案和新的损失设计用于密集描述符学习。在对比 in-house 鼻窦内窥镜数据集和公共密集光流数据集以及小规模公共 SfM 数据集的实验中,我们证明了我们提出的密集描述符具有更好的泛化性能,显著提高了 Structure from Motion (SfM) 模型的密度和完整性。
Mar, 2020
该研究论文利用学习到的紧凑深度图表示和重构三种不同类型的误差,将光度误差,重投影误差和几何误差应用于标准因子图软件中,将不同的方法统一到概率框架中,实现实时性能的同时对现实世界序列的轨迹估计和深度重建进行评估,并呈现了估计的丰富几何示例。
Jan, 2020
该论文提出一种基于拓扑地图的肠镜内部位置映射和定位方法,它能够通过使用节点表示肠道位置和边缘表示节点之间可穿越性的方式来操作真实的人类肠镜。此外,论文还提出一种全局描述符方法,该方法能够在长时间变化下实现高召回率的肠道位置识别,并结合贝叶斯过滤器对地图图形进行处理,从而提高了对先前建立地图的再定位的精度。
May, 2023
GO-SLAM 是一种基于深度学习的稠密视觉 SLAM 框架,通过全局优化姿态和三维重建实时改进相机跟踪和重构方面的错误累积问题,并通过有效的闭环检测和在线全捆绑调整支持鲁棒的姿态估计和实时三维重建,同时在运行中实时更新隐式和连续的表面表示以确保全局一致性的三维重建,各种合成和真实世界数据集的结果表明,GO-SLAM 在跟踪鲁棒性和重建精度方面优于现有方法,并且具有多样性,可配合单目、立体和 RGB-D 输入工作。
Sep, 2023