无监督单目视觉里程计的位姿图优化
本文提出了一种新颖的单目视觉里程计(VO)系统UnDeepVO,其能够使用深度神经网络估计单目相机的6-DoF姿态和视野深度,该系统具有无监督深度学习方案和绝对尺度恢复两个显着特点,并且在KITTI数据集上获得了良好的姿态精度。
Sep, 2017
本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在KITTI数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
提出了一种使用深度学习技术的长期机器人导航方法ViPR,通过结合绝对位姿估计和相对位姿估计,利用时序信息和模块化的设计,并在已知数据集和工业数据集上取得了较好的效果。
Dec, 2019
自监督学习VO的一种特殊考虑一致性的方法,采用具有两层卷积LSTM模块的姿态网络对姿态预测中的长期依赖进行建模,通过自监督损失进行训练,包括模拟几何VO中的循环一致性丢失的循环一致性丢失,并通过引入一种损失使网络能够在训练期间超出小时间窗口。结果表明,在几个VO数据集中表现出竞争性结果,包括KITTI和TUM RGB-D。
Jul, 2020
利用基于自注意力机制的TSformer-VO模型,将单目视觉里程计作为视频理解任务,从视频片段中提取特征并通过端到端的方式估计摄像机的6-DoF位姿,取得了与基于几何和深度学习的方法相比具有竞争力的业内领先表现。
May, 2023
我们引入了一种新颖的单目视觉里程计(VO)系统NeRF-VO,它整合了基于学习的稀疏视觉里程计用于低延迟相机跟踪和神经辐射场景表示用于复杂的密集重建和新视角合成。我们的系统使用稀疏视觉里程计初始化相机位姿,并从单目深度预测网络获取视角相关的密集几何先验。我们将位姿和密集几何的尺度统一起来,将它们视为监督信号来训练神经隐式场景表示。NeRF-VO通过联合优化关键帧位姿和底层密集几何,在边缘项渲染的过程中训练辐射场,展现了出色的场景表示的光度和几何保真度,在各种合成和真实世界的数据集上超过了最先进的方法,在姿态估计准确性、新视角合成保真度和密集重建质量方面都取得了更好的性能,并且在相机跟踪频率更高和GPU内存消耗更少的情况下。
Dec, 2023