- 端到端学习的基于事件和图像的视觉里程计
RAMP-VO 是第一个端到端学习的事件 - 图像式视觉里程计系统,它利用了新颖的 RAMP 编码器,比现有异步编码器快 8 倍,准确性高出 20%;RAMP-VO 还采用了一种新颖的姿态预测技术,用于初始化时预测未来的姿态。尽管仅在模拟环 - 机器人定位与建图终稿 —— 用于自监督式深度视觉测距的顺序对抗学习
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
- 深度学习在视觉定位和地图构建中的应用综述
通过综述和提出分类法,本文基于深度学习对定位和制图的研究方法进行探讨,并希望成为将来研究人员应用深度学习解决视觉定位和制图问题的指南。
- 基于深度学习的点线特征匹配的立体视觉里程计与注意力图神经网络
本文提出了一种基于点线特征的立体视觉里程计(StereoVO)技术,并使用一种基于注意力图神经网络的新型特征匹配机制,在恶劣的天气条件(如雾、霾、雨和雪)和动态光照条件(如夜间照明和眩光场景)下表现出色,通过稳健的点线匹配在低能见度天气和光 - 基于事件的视觉测距:通过连续时间高斯过程回归实现全部时间分辨率
本文提出了使用连续时间轨迹估计和带有物理启示的高斯过程回归,直接估计带有个体事件测量时间的完整立体视觉里程计流水线,避免了传统的分组或近似技术,并成功在 MVSEC 数据集上评估和验证,相对误差分别为 7.9e-3 和 5.9e-3,这比现 - 用于具身视觉的模态不变视觉里程计
提出一种基于 Transformer 的模态不变的 Visual Odometry 方法,可以应对不同或变化的导航代理的传感器套件,该模型在仅使用部分数据进行训练时,优于先前的方法。
- 轻量级,不确定性感知的可证明视觉里程计
本文提出了一种轻量、统计鲁棒的框架,利用符合推理来提取视觉坐标自适应预测间隔的不确定性,勾画了生成深度神经网络、蒙特卡洛 Dropout、区间打分和校准损失等技术,从而改善不确定性感知学习对于决策领域的应用。
- 共振网络的神经形态视觉里程计
本文提出一种利用神经学中向量符号体系(VSA)的计算范式构建的适用于神经形态计算的视觉里程计(VO)算法。该 VO 网络不仅可以生成并存储所呈现视觉环境的工作内存,同时在估计摄像机的位置和方向变化的同时更新这个工作内存。该文实验验证了该方法 - 基于像素预测与不确定性估计的视觉里程计
本文介绍了基于像素预测的视觉里程表(PWVO)的方法,该方法通过不确定性估计识别输入观测中的噪声区域,并采用选择机制来集成基于估计的不确定性地图的像素级预测以确定最终的平移和旋转值。通过合成训练数据的数据生成工作流,全面培训 PWVO,并且 - ECCVJPerceiver: 自动驾驶全感知网络
该研究提出了一种名为 JPerceiver 的新方法,通过多任务学习的方式,利用 CGT 比例损失和 CCT 模块促进跨任务知识转移,从单目视频序列中同时估计深度、VO 和 BEV 布局,是当前三项任务中准确性、模型尺寸和推理速度方面最优秀 - 基于视觉的大规模 3D 语义地图构建在自动驾驶应用中的研究
本文提出一种仅基于立体相机系统完成 3D 语义映射的完整流程,其中包括全局优化的直接稀疏视觉里程表前端和 GNSS 集成,以及语义 3D 点云标记的后端。作者提出了一种简单但有效的时间投票方案,提高了 3D 点标签的质量和一致性,并在 KI - ICCV视觉测距技术在点目标导航中的出人意料有效性
本研究使用实际噪声模型和视觉里程法,改进了 Habitat PointNav 基准中 PointGoal 导航任务的成功率,成功率从 64.5% 提高到 71.7%,速度提高了 6.4 倍。
- CVPR基于对数 - 对数稠密光流残差的视觉里程计
本文提出了一种基于外部估计的光流场而不是手工特征对应的密集间接视觉里程计方法,将其定义为概率模型,并开发了一种广义 EM 公式用于联合推断相机运动、像素深度和运动跟踪置信度。通过自适应的对数 - 对数逻辑分布模型对我们的推理框架进行监督,充 - CVPR面向开放世界的泛化:在线适应深度视觉里程计
本研究提出了一种基于场景不可知几何计算和贝叶斯推理的在线适应深度视觉里程计的框架,该方法采用了自监督学习,解决了深度学习视觉里程计训练数据和测试数据之间的域差异,通过光流和深度等信息实现姿态估计,具有良好的通用性和自适应性。
- TartanVO:基于学习的通用 VO
本研究提出了首个基于学习的视觉里程计模型,利用 TartanAir SLAM 数据集中提供的大量多样化的合成数据,采用尺度损失函数和相机内参将模型泛化到多个数据集和真实世界场景中,无需微调即可应用于 KITTI 和 EuRoC 数据集,并在 - 基于增量旋转平均和环路闭合的单目旋转里程计
通过 2D-2D 特征匹配技术,利用旋转平均算法设计一种可快速而又准确地估算单目相机旋转方向的系统,该系统通过维护一个视图图形并解决旋转问题来估算摄像机轨迹和地图,并驱动 V-SLAM 系统跟踪纯旋转运动。
- 融合自我定位以实现更真实的点 - 目导航智能体
本文介绍了一种基于视觉位移估计和任务特定导航策略的点目标导航代理,该代理可适应嘈杂的传感器和动作动态,并在 CVPR 2020 Habitat Challenge 的 PointNav 跟踪中获得亚军。
- 大规模光度捆绑调整
本文提出一个通过联合光度优化密集几何和摄像机参数,用于 3D 重建的框架,使其比特征点 bundle 调整更具指标重建精度,该框架可以应用于大规模的数据集,并且在面对不同的光照和相机内参时有更好的表现。
- 基于事件的立体视觉里程计
本文提出了一种使用事件相机实现实时的视觉里程计的解决方案,其中包括基于视觉一致性的立体事件数据融合的半密集三维场景重建以及通过选定的地图和事件数据表示解决的姿态恢复问题。该系统成功利用事件相机的优势,在高速和大动态范围场景下进行视觉里程计, - ECCV自监督深度和自身运动学习的特征度量损失
本文提出了一种基于特征度量的损失函数作为自监督深度和自我运动估计的代替方法, 借助于特征表示,结合一阶和二阶正则化方法,对损失最小化求解提供更好的收敛性能和稳定性,实验结果显示此方法优于现有的自监督方法和视觉里程计方法。