深度视觉里程计的选择性存储和姿态细化
本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
本文提出了一种基于深度卷积递归神经网络的端到端视觉里程计体系结构,该体系结构使用了有指导的特征选择方法。实验表明,在流行的KITTI和ICL_NUIM基准测试中,我们的方法在解耦和关节相机姿态恢复方面都优于当前最先进的基于模型和基于学习的方法。
Nov, 2018
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在KITTI数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
本文提出了一种基于在线元学习算法的自监督 Visual Odometry(VO)方法,利用了卷积长短时记忆(convLSTM)和特征对齐技术,实现了 VO 网络的持续适应新环境和快速自我更新。实验证明,该方法在未见过的户外场景、虚拟到真实世界和室外到室内环境转换中都明显优于基于自监督学习的 VO 基线方法。
May, 2020
自监督学习VO的一种特殊考虑一致性的方法,采用具有两层卷积LSTM模块的姿态网络对姿态预测中的长期依赖进行建模,通过自监督损失进行训练,包括模拟几何VO中的循环一致性丢失的循环一致性丢失,并通过引入一种损失使网络能够在训练期间超出小时间窗口。结果表明,在几个VO数据集中表现出竞争性结果,包括KITTI和TUM RGB-D。
Jul, 2020
本研究提出了一种基于场景不可知几何计算和贝叶斯推理的在线适应深度视觉里程计的框架,该方法采用了自监督学习,解决了深度学习视觉里程计训练数据和测试数据之间的域差异,通过光流和深度等信息实现姿态估计,具有良好的通用性和自适应性。
Mar, 2021
我们引入了一种新颖的单目视觉里程计(VO)系统NeRF-VO,它整合了基于学习的稀疏视觉里程计用于低延迟相机跟踪和神经辐射场景表示用于复杂的密集重建和新视角合成。我们的系统使用稀疏视觉里程计初始化相机位姿,并从单目深度预测网络获取视角相关的密集几何先验。我们将位姿和密集几何的尺度统一起来,将它们视为监督信号来训练神经隐式场景表示。NeRF-VO通过联合优化关键帧位姿和底层密集几何,在边缘项渲染的过程中训练辐射场,展现了出色的场景表示的光度和几何保真度,在各种合成和真实世界的数据集上超过了最先进的方法,在姿态估计准确性、新视角合成保真度和密集重建质量方面都取得了更好的性能,并且在相机跟踪频率更高和GPU内存消耗更少的情况下。
Dec, 2023
基于视觉输入,视觉里程计根据图像序列中的丰富时间上下文和选择的关键点,通过LEAP模块进行长期有效的任意点跟踪,有效解决遮挡、动态对象和低纹理区域等挑战,从而提供全轨迹可靠性评估,其前端应用了长期点跟踪的新实践方法,实验证明在各种视觉里程计基准中显著优于现有基线。
Jan, 2024