LS-VO:学习稠密光学子空间用于鲁棒地视觉里程计估计
本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
本文介绍了一个全新的深度学习方法来进行单目 SLAM,通过使用学习视觉里程计(L-VO)和稠密 3D 映射的神经网络,该方法能够实现同时定位与建图。
Mar, 2018
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在KITTI数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
本文提出了一种基于在线元学习算法的自监督 Visual Odometry(VO)方法,利用了卷积长短时记忆(convLSTM)和特征对齐技术,实现了 VO 网络的持续适应新环境和快速自我更新。实验证明,该方法在未见过的户外场景、虚拟到真实世界和室外到室内环境转换中都明显优于基于自监督学习的 VO 基线方法。
May, 2020
本研究提出了一种基于场景不可知几何计算和贝叶斯推理的在线适应深度视觉里程计的框架,该方法采用了自监督学习,解决了深度学习视觉里程计训练数据和测试数据之间的域差异,通过光流和深度等信息实现姿态估计,具有良好的通用性和自适应性。
Mar, 2021
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023
我们引入了一种新颖的单目视觉里程计(VO)系统NeRF-VO,它整合了基于学习的稀疏视觉里程计用于低延迟相机跟踪和神经辐射场景表示用于复杂的密集重建和新视角合成。我们的系统使用稀疏视觉里程计初始化相机位姿,并从单目深度预测网络获取视角相关的密集几何先验。我们将位姿和密集几何的尺度统一起来,将它们视为监督信号来训练神经隐式场景表示。NeRF-VO通过联合优化关键帧位姿和底层密集几何,在边缘项渲染的过程中训练辐射场,展现了出色的场景表示的光度和几何保真度,在各种合成和真实世界的数据集上超过了最先进的方法,在姿态估计准确性、新视角合成保真度和密集重建质量方面都取得了更好的性能,并且在相机跟踪频率更高和GPU内存消耗更少的情况下。
Dec, 2023
本研究重点概述了视觉里程计(VO)网络中的不同姿态表示和度量函数。通过在VO网络DeepVO中实现基于欧拉角、四元数和弦距离的损失函数并分析其对性能的影响,我们研究了姿态表示和损失函数对网络收敛和泛化的显著影响。实验结果表明,符合度量要求的距离(如弦距离)可以提供更好的泛化能力和更快的收敛速度,为相机运动估计的高效准确设计提供了见解。
Dec, 2023
本研究针对传统几何方法在特征选择中的局限性,提出了一种新的度量感知协方差方法,能够在关键点选择和姿态图优化中加权残差。通过增强对空间误差和相关性的捕捉,MAC-VO在复杂环境中显著提高了位置估计的鲁棒性和可靠性,相较于现有的视觉里程计和某些SLAM算法表现出更优越的效果。
Sep, 2024