- CVPR自监督深度视觉里程计与在线自适应
本文提出了一种基于在线元学习算法的自监督 Visual Odometry(VO)方法,利用了卷积长短时记忆(convLSTM)和特征对齐技术,实现了 VO 网络的持续适应新环境和快速自我更新。实验证明,该方法在未见过的户外场景、虚拟到真实世 - CVPRClusterVO: 将移动实例聚类并估计自身与周围的视觉里程计
ClusterVO 是一种在线立体视觉里程计,能够同时聚类估计自身和周围的刚性聚类 / 物体的运动,其核心是多级概率相关机制和结合语义、空间和运动信息的异构条件随机场聚类方法,在 Oxford 多动态和 KITTI 数据集上达到了与最先进解 - 自监督关键点学习的神经异常值拒绝
本研究提出了 IO-Net (内点外点网络) 和 KeypointNet (关键点网络) 两种神经网络架构,分别用于自监督学习的关键点检测、描述和匹配,通过在挑战性基准测试上的实验证明,所提出的自监督学习方法显著提高了关键点匹配和单应矩阵估 - CVPRViPR: 基于视觉里程计辅助的 6 自由度相机定位姿态回归
提出了一种使用深度学习技术的长期机器人导航方法 ViPR,通过结合绝对位姿估计和相对位姿估计,利用时序信息和模块化的设计,并在已知数据集和工业数据集上取得了较好的效果。
- 多帧 GAN:低光环境下用于立体视觉里程计图像增强
本文提出了一种基于多帧 GAN 的图像序列增强方法,并通过实验验证了其在低光条件下用于立体视觉里程计的潜力。该方法不需要昂贵的成对数据集,通过可逆对抗网络的优秀性能,将亮度较高的场景中的有益特征传输到低照度序列中,并通过引入一个基于光流估计 - DeepPCO: 深度并行神经网络实现的端到端点云里程计
本文研究如何利用深度学习估计点云里程计,并提出了一个称为 DeepPCO 的新型神经网络模型,可通过估计连续点云来预测 6 自由度姿态,实验结果表明该方法在位姿准确性方面表现良好。
- ICCV用于自监督深度视觉里程计的顺序对抗学习
本文基于帧间关联思想,应用自监督深度估计框架,引入生成对抗网络技术,构建了一个视觉里程计系统,实现了更加精准的深度估计以及超越同类方法的姿态估计。
- ICCV局部支持全局:带序列增强的深度相机重定位
使用序列图像中的局部信息支持全局相机重定位,提出了包括内容增强姿态估计和基于运动的细化两个步骤的新方法,实验结果表明我们的方法在一些具有挑战性的情况下表现优于最先进的方法,例如纹理不足、高度重复的纹理、相似的外观和过度曝光。
- ICCV从深度姿态回归网络中提取知识
本研究提出了一种从深度姿态回归网络中提取知识以实现高效视觉测距的方法,该方法通过 Attentive Imitation Loss (AIL) 的方式注入教师损失作为置信度评分,并使用 Attentive Hint Training (AH - CVPR深度视觉里程计的选择性存储和姿态细化
本研究提出了一种视觉里程计框架,采用三个组件:内存、优化和特征集中。在几个基准数据集上进行的实验证明,相比于现有的学习方法,该方法在纹理不佳和突发运动等复杂环境下具有更优异的性能。
- 无监督单目视觉里程计的位姿图优化
本文提出一种基于无监督学习的单目视觉里程计系统,结合图优化和回路检测,利用神经网络构建一个包含多视图 6DoF 约束的窗口位姿图,并提出了一种姿态周期一致性损失来改善性能和鲁棒性,进而构建全局位姿图进行优化,实验结果表明该方法具有良好的性能 - 自监督自运动估计的光度损失之外
本研究针对相对姿态在视觉测距和同时定位与地图构建中的重要性,介绍了一种基于自我监督学习的方法,同时优化相对姿态和目标图像深度,并通过引入在自我监督框架中被极线几何约束的匹配损失来弥合几何损失和光度损失之间的差距。在 KITTI 数据集上基于 - 端到端 6 自由度视觉定位和里程的深度全局相对网络
本文提出了一种基于深度端到端网络的长期六自由度视觉里程法,通过融合相对网络和全局网络来改进单目定位的准确性,并使用交叉变换约束和均方误差来优化参数,实验结果表明本方法在位姿准确性方面优于其他最先进的基于学习的视觉里程计方法。
- 自我改进的视觉里程计
我们提出了一种自我监督学习框架,使用未标记的单眼视频序列生成大规模监督,用于训练视觉里程计前端,并使用输出来创建自我监督数据集以重新训练前端。
- CVPRMagicVO: 通过深度双向递归卷积神经网络实现单目视觉里程计的端到端计算
本文提出了 MagicVO 框架,基于卷积神经网络和双向 LSTM,对单眼视觉里程计问题进行求解,实验结果表明,MagicVO 在位姿准确性和泛化能力方面优于传统视觉里程计系统。
- 深度视觉里程计引导特征选择
本文提出了一种基于深度卷积递归神经网络的端到端视觉里程计体系结构,该体系结构使用了有指导的特征选择方法。实验表明,在流行的 KITTI 和 ICL_NUIM 基准测试中,我们的方法在解耦和关节相机姿态恢复方面都优于当前最先进的基于模型和基于 - GANVO: 基于生成对抗网络的无监督单目视觉里程计与深度估计
本文提出了一种基于生成对抗网络的无监督学习框架,从未标记的 RGB 图像序列中预测场景的 6 自由度姿态相机运动和单目深度图,并在 KITTI 和 Cityscapes 数据集上给出了详细的定量和定性评估,结果表明该方法优于现有传统和无监督 - 多运动视觉里程计:同时估计相机和第三方运动
该论文研究了在动态场景中同时估计相机和环境物体的运动情况,提出了一种称为多动模视觉里程计 (MVO) 的管道,不需要先验知识和对环境的已知条件,该算法在真实动态数据集上的验证实验表明良好的性能。
- 带有滚动快门的直接稀疏里程计
本文提出了一种新的单目直接视觉里程计方法,该方法利用了卷帘快门模型,通过直接稀疏里程计来对一组最近的关键帧姿态和少量图像点进行捆绑调整,估计每个关键帧的速度并强加一个恒定速度先验性,以此获得准实时且精确的直接 VO 方法,在具有挑战性的卷帘 - 双球摄像机模型
本文提供了一种新的大视野摄像机模型,名为 Double Sphere camera model,通过校准数据集的试验,与现有模型进行对比,提出该模型具有计算性价比高、逆变换所需要的时间可控等优点。