基于注意力机制的深度学习单目视觉里程计的运动一致性损失
本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
通过利用深度单目深度预测来改进单目视觉里程计,利用直接虚拟立体测量方法将深度预测与Direct Sparse Odometry(DSO)相结合,关键考虑半监督学习,并在KITTI基准测试中超越其他的方法,实现了与基于立体相机的方法相当的性能。
Jul, 2018
本文提出了一种基于深度卷积递归神经网络的端到端视觉里程计体系结构,该体系结构使用了有指导的特征选择方法。实验表明,在流行的KITTI和ICL_NUIM基准测试中,我们的方法在解耦和关节相机姿态恢复方面都优于当前最先进的基于模型和基于学习的方法。
Nov, 2018
本研究提出了一种利用循环神经网络和多视图图像重投影以及前向-后向流一致性损失来训练的学习型多视图稠密深度地图和里程计估计方法,可用于视频的深度和视觉里程计估计,产生优于现有技术的单视图和多视图深度估计结果。
Apr, 2019
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在KITTI数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
本文介绍了一种基于深度学习的自适应视觉惯性测距(VIO)方法,采用先进的策略网络,根据运动状态和惯性测量读数,在可能的情况下对视觉模态进行去激活,以减少计算的冗余并实现自适应复杂性缩减。实验结果表明,该技术可在评估KITTI数据集时实现高达78.8%的计算复杂度降低,其性能与完整模态基线方法相当甚至更好。
May, 2022
利用基于自注意力机制的TSformer-VO模型,将单目视觉里程计作为视频理解任务,从视频片段中提取特征并通过端到端的方式估计摄像机的6-DoF位姿,取得了与基于几何和深度学习的方法相比具有竞争力的业内领先表现。
May, 2023
本研究重点概述了视觉里程计(VO)网络中的不同姿态表示和度量函数。通过在VO网络DeepVO中实现基于欧拉角、四元数和弦距离的损失函数并分析其对性能的影响,我们研究了姿态表示和损失函数对网络收敛和泛化的显著影响。实验结果表明,符合度量要求的距离(如弦距离)可以提供更好的泛化能力和更快的收敛速度,为相机运动估计的高效准确设计提供了见解。
Dec, 2023