提出了一种基于单目内窥镜数据的自监督卷积神经网络训练方法,无需解剖学或阴影的先验建模,仅需要单目内窥镜视频和多视角立体方法,如运动结构,以稀疏方式监督学习。
Feb, 2019
本论文介绍了在内窥镜图像中利用光度线索提高单目深度估计的方法,并通过使用自监督和监督训练的方法,结合教师 - 学生迁移学习,实现了对内窥镜图像的高质量深度估计。
Mar, 2024
该研究提出了一种新方法来利用标记的合成数据和未标记的真实数据,以实现对结肠镜序列的更具弹性和准确的深度图预测。
Oct, 2023
使用基于深度学习的自监督学习方法,提出一种无需真实深度信息,使用深度估计器和可微的空间变换器的,适用于手术场景深度估计的深度学习框架。
May, 2017
本文提出了一种在内窥镜术中进行单目深度估计的方法,该方法利用几何一致性损失和梯度损失来提高重建效果,并使用合成的 RGB-Depth 数据集来捕捉解剖结构上的反射和照明变化,实验结果表明该方法在实现视频 - CT 配准算法的精度要求时,具有优于现有方法的表现。
Apr, 2023
该论文提出了一种自监督学习的方法,利用几何先验和自编码器来提高单目深度估计的效果,实验结果表明该方法在 KITTI 数据集上的表现优于现有方法,适用于高性能 GPU 和嵌入式设备。
Aug, 2019
这个研究探讨了如何通过使用卷积神经网络和其它技术来优化和扩展基于深度学习的深度估计模型,以提高相机获取的图像的三维深度感知的精度。
通过定量分析,我们使用自监督方法对内窥镜定位进行了定量分析,采用与高分辨率计算机断层扫描相结合的内窥镜序列和光学跟踪获取的 9 个离体标本的结果显示,所生成的重建与解剖结构高度一致,重建与 CT 分割间的平均点对网格误差为 0.91 毫米,然而,在点对点匹配场景中,即对内窥镜跟踪和导航至关重要的情况下,我们发现平均目标注册误差为 6.58 毫米。我们发现姿态与深度估计的不准确性对此误差贡献相等,并且具有更短轨迹的局部一致性序列生成更准确的重建。因此,为了改进重建并促进临床应用,实现相对相机姿态和估计深度与解剖学的全局一致性至关重要。
本论文提出了一种有效的自监督训练方案和新的损失设计用于密集描述符学习。在对比 in-house 鼻窦内窥镜数据集和公共密集光流数据集以及小规模公共 SfM 数据集的实验中,我们证明了我们提出的密集描述符具有更好的泛化性能,显著提高了 Structure from Motion (SfM) 模型的密度和完整性。
Mar, 2020
量化监督式单视图深度的不确定性的贝叶斯深度神经网络,通过光照作为单视图自我监督信号,提出了一种仅需 RGB 图像和内窥镜的几何和光度校准的完全自我监督方法。
Jun, 2024