本文提出了一种新的、基于深度循环卷积神经网络(RCNNs)的单目 VO 的端到端框架,通过该框架,可以直接从一系列原始 RGB 图像(视频)中推断出姿态,同时具备学习有效特征表示、深度循环神经网络中的序列动力学和关系的功能,实验验证了该技术具备与传统 VO 系统相当的竞争力。
Sep, 2017
该论文提出了一种利用几何结构作为自我监督信号的无监督深度视觉里程计学习范例,并表明这种方法与监督学习方法在性能上的竞争力相当。
Apr, 2018
本文提出了一种基于生成对抗网络的无监督学习框架,从未标记的RGB图像序列中预测场景的6自由度姿态相机运动和单目深度图,并在KITTI和Cityscapes数据集上给出了详细的定量和定性评估,结果表明该方法优于现有传统和无监督深度VO方法,提供更好的姿态估计和深度恢复结果。
Sep, 2018
我们提出了一种自我监督学习框架,使用未标记的单眼视频序列生成大规模监督,用于训练视觉里程计前端,并使用输出来创建自我监督数据集以重新训练前端。
Dec, 2018
本研究提出了一种利用循环神经网络和多视图图像重投影以及前向-后向流一致性损失来训练的学习型多视图稠密深度地图和里程计估计方法,可用于视频的深度和视觉里程计估计,产生优于现有技术的单视图和多视图深度估计结果。
Apr, 2019
该研究提出了一种新的无监督网络系统用于视觉深度和自我运动估计:堆叠生成对抗网络(SGANVO)。该系统由一堆GAN层组成,其中最底层估计深度和自我运动,而更高的层估计空间特征,并且由于在层之间使用了循环表示,可以捕捉时间动态。该方法在KITTI数据集上获得了更好或可比较的深度和自我运动估计结果。
Jun, 2019
本文基于帧间关联思想,应用自监督深度估计框架,引入生成对抗网络技术,构建了一个视觉里程计系统,实现了更加精准的深度估计以及超越同类方法的姿态估计。
Aug, 2019
本文提出了一种单目视觉里程计算法,它结合了基于几何方法和深度学习的思想,并利用两个卷积神经网络进行深度估计和光流估计。在KITTI数据集上的实验表明,该算法具有较强的鲁棒性和良好的性能。
Sep, 2019
本研究提出了一种基于场景不可知几何计算和贝叶斯推理的在线适应深度视觉里程计的框架,该方法采用了自监督学习,解决了深度学习视觉里程计训练数据和测试数据之间的域差异,通过光流和深度等信息实现姿态估计,具有良好的通用性和自适应性。
Mar, 2021
通过综述和提出分类法,本文基于深度学习对定位和制图的研究方法进行探讨,并希望成为将来研究人员应用深度学习解决视觉定位和制图问题的指南。
Aug, 2023