用于视觉定位和里程计的深层辅助学习
本研究提出了 VLocNet ++ 体系结构,采用多任务学习方法来利用学习语义,回归 6-DoF 全局姿势和里程计之间的相互关系,以使每个任务都获得相互的好处。我们的网络通过同时将世界的几何和语义知识嵌入姿势回归网络来克服上述限制。大量实验证明,我们的方法均能胜过以本地特征为基础的方法,同时实现多个任务并在挑战性场景中表现出相当的鲁棒性。
Apr, 2018
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023
本文提出了一种基于深度端到端网络的长期六自由度视觉里程法,通过融合相对网络和全局网络来改进单目定位的准确性,并使用交叉变换约束和均方误差来优化参数,实验结果表明本方法在位姿准确性方面优于其他最先进的基于学习的视觉里程计方法。
Dec, 2018
自监督学习 VO 的一种特殊考虑一致性的方法,采用具有两层卷积 LSTM 模块的姿态网络对姿态预测中的长期依赖进行建模,通过自监督损失进行训练,包括模拟几何 VO 中的循环一致性丢失的循环一致性丢失,并通过引入一种损失使网络能够在训练期间超出小时间窗口。结果表明,在几个 VO 数据集中表现出竞争性结果,包括 KITTI 和 TUM RGB-D。
Jul, 2020
本文介绍了一个全新的深度学习方法来进行单目 SLAM,通过使用学习视觉里程计(L-VO)和稠密 3D 映射的神经网络,该方法能够实现同时定位与建图。
Mar, 2018
本文提出了一种基于在线元学习算法的自监督 Visual Odometry(VO)方法,利用了卷积长短时记忆(convLSTM)和特征对齐技术,实现了 VO 网络的持续适应新环境和快速自我更新。实验证明,该方法在未见过的户外场景、虚拟到真实世界和室外到室内环境转换中都明显优于基于自监督学习的 VO 基线方法。
May, 2020
本文介绍了一种用于无人机的新型实时单目视觉里程计模型,使用了深度神经网络架构和自注意力模块,能够通过连续视频帧估计相机的自身运动,进而估计无人机的轨迹。该模型在两个视觉里程计数据集上测试,收敛速度比之前的循环神经网络模型快 48%,并且平均平移漂移减少了 22%,平均平移绝对轨迹误差改善了 12%,表现出更强的抗噪能力。
Apr, 2024
本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
提出了一种使用深度学习技术的长期机器人导航方法 ViPR,通过结合绝对位姿估计和相对位姿估计,利用时序信息和模块化的设计,并在已知数据集和工业数据集上取得了较好的效果。
Dec, 2019
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在 KITTI 数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019