- CVPR从方差到真实性:在可微束调整层中解构和减轻梯度方差
通过使用在训练问题中预测的权重来降低梯度方差,从而减轻异常值的影响,我们提出了一个简单但有效的解决方案,以实现更快的训练速度并在不牺牲性能的情况下在不同的训练设置中更具灵活性。
- 连续视觉里程计中遗忘和迁移的实证影响
研究通过在具体环境中连续训练神经网络来实证调查了灾难性遗忘的影响及知识转移的有效性,重点关注视觉测距任务,并发现在环境特定知识优先的同时导致泛化能力下降,强调了在终身机器人学中平衡适应和记忆保留的挑战。
- 一种基于注意力的深度学习框架用于实时单目视觉里程计:应用于无 GPS 无人机导航
本文介绍了一种用于无人机的新型实时单目视觉里程计模型,使用了深度神经网络架构和自注意力模块,能够通过连续视频帧估计相机的自身运动,进而估计无人机的轨迹。该模型在两个视觉里程计数据集上测试,收敛速度比之前的循环神经网络模型快 48%,并且平均 - CVPR不同 iable 宽基线姿态优化的多会话 SLAM
我们介绍了一种新的多会话 SLAM 系统,可以在一个全局参考下跟踪多个不同的视频中的相机运动。我们的方法通过预测光流,并结合求解器层来估计相机姿态。该系统可以连接不连续的序列,进行视觉测距和全局优化,与现有方法相比,我们的设计精确且对灾难性 - VBR:罗马视觉基准测试
本文介绍了一份在罗马收集的视觉和感知研究数据集,包括 RGB 数据、3D 点云、IMU 和 GPS 数据,并引入了一个新的基准用于视觉里程计和 SLAM,以推进自主机器人和计算机视觉的研究。
- 带姿态监督的显著稀疏视觉里程计
该论文提出了一种新的混合视觉里程计(VO)框架,利用仅姿态监督来平衡鲁棒性和对大量标注的需求,并采用自我监督的同态学习和随机基于补丁的显著点检测策略,提高系统在各种具有挑战性的环境中的泛化能力。该方法在标准数据集上具有竞争力的性能,并在极端 - POLAR Traverse 数据集:极端光照条件下模拟月球极地地形穿越的立体相机图像数据集
通过极地光照条件下的高保真度立体成对图像的 POLAR Traverse 数据集,模拟直线移动并记录不同相机高度和倾斜度的遍历图像,旨在开发和测试依赖立体或单眼相机图像的软件算法(如视觉里程计)在月球极地环境中的应用,并提供月球极地区域预期 - 通过解耦旋转和平移实现基于三点线图像的准确实时相对位姿估计
在本文中,我们提出了一种基于旋转 - 平移解耦估计的新型三视图位姿求解器,该方法通过考虑观测的不确定性并使用 Levenberg-Marquardt(LM)算法高效求解旋转估计,以及通过精心设计的稳健线性平移约束,来准确估计旋转和平移,实验 - 内窥镜视觉里程计的高效领域自适应
提出了一种用于内窥镜视觉测距的高效神经风格转换框架,将术前规划领域与术中真实领域进行培训信息的域适应,以在不到五分钟的时间内压缩从术前规划到测试阶段的时间,并通过利用术前先验信息在训练模块中仅使用有限数量的真实图像来大大缩短训练时间。在测试 - YOLOPoint 关节点和物体检测
未来的智能车辆必须能够理解并安全地穿行其周围环境。基于摄像头的车载系统可以使用关键点和物体作为 GNSS 无关的 SLAM 和视觉里程计的低级和高级地标。为此,我们提出了 YOLOPoint,一种将 YOLOv5 和 SuperPoint - 基于注意力机制的深度学习单目视觉里程计的运动一致性损失
该论文提出了一种基于深度学习的视觉里程计的一致性损失函数,实验证明该方法提高了模型在 KITTI 里程计基准上的性能。
- 非完整地面车辆的事件驱动视觉里程计
基于事件的运动估计在提取和跟踪稳定特征方面仍然存在困难,因此通常认为与其他传感器的融合是必需的。在本研究中,我们利用 Ackermann 转向平台的约束非完整运动模型,实现了可靠的纯事件型视觉测距。通过将常规帧摄像机的单特征非线性扩展到准时 - LEAP-VO: 长期有效的任意点追踪视觉里程计
基于视觉输入,视觉里程计根据图像序列中的丰富时间上下文和选择的关键点,通过 LEAP 模块进行长期有效的任意点跟踪,有效解决遮挡、动态对象和低纹理区域等挑战,从而提供全轨迹可靠性评估,其前端应用了长期点跟踪的新实践方法,实验证明在各种视觉里 - 脑启发式视觉里程计:通过系统方法实现速度和可解释性的平衡
该研究介绍了一种集传统视觉测距方法和全连接网络方法于一体的创新系统,通过独立处理各个自由度并注重因果推断来提高可解释性,从而在保持精度的同时大幅提高处理速度,并在根均方误差中实现 5% 的降低,成功弥合长期以来视觉测距研究中速度和精度之间的 - 基于相位相关的前置摄像头视频轨迹近似
通过视觉里程计从 GPS 受限环境中的相机传感器中提取轨迹的创新方法,系统利用车辆上安装的前置摄像头捕捉的视频素材作为输入,输出为表示摄像头轨迹的链码。该方法基于相位相关对视频连续帧进行信息提取,并引入基于相位相关的 x 轴偏移值的新型链码 - 深度事件视觉里程计
基于事件相机,本研究提出了第一个单目纯事件系统 Deep Event VO (DEVO),通过稀疏追踪选定的事件块,显著减少了七个真实场景基准测试上的位姿跟踪误差,较单纯事件方法减少了 97%,并且通常优于或接近立体或惯性方法。
- 使用遗传算法的密集视觉里程计
本研究通过使用基于遗传算法的迭代遗传算法来估计以静态场景中的 RGB-D 图像为基础的移动机器人或移动物体上的头部摄像机运动,并通过与传统方法以及另一种元启发式方法的均方根误差比较来证明了该算法的高效性。
- 惯性引导下的视觉惯导视差不确定性估计
利用惯性导航方法估计特征对应关系的不确定性,提高视觉里程计和 SLAM 方法的准确性。
- 基于特征的位姿估计中的深度图像和点云转换
通过消除噪音并将深度数据转换为图像,本文提出了一种新方法,可以显示传统深度图像中隐藏的空间细节,从而在深度数据和经典计算机视觉之间架起了桥梁,并在可视航位推测和 RGB-D SLAM 任务中取得了更好的结果。
- 顺应化的多模态不确定性回归和推理
本研究介绍了一种轻量级的不确定性估计器,通过将符合预测与深度学习回归器相结合,能够预测多模态(不相交)的不确定性界限。我们特别讨论了它在视觉里程计中的应用,该应用中环境特征,如飞行领域的对称性和模糊和遮挡下的传感器测量,可能导致多模态不确定