使用遗传算法的密集视觉里程计
该研究介绍了一种新的相机运动估计方法,通过场景流集成 RGB-D 图像和惯性数据,旨在在刚性三维环境中准确估计相机运动和惯性测量单元(IMU)状态。通过对合成数据和真实数据进行评估,结果显示这两个传感器的融合相比仅使用视觉数据具有更高的相机运动估计精度。
Apr, 2024
该研究提出了一种用于实时追踪刚体三维物体 6 自由度位姿的算法,采用单目 RGB 相机,利用一种基于区域的代价函数,并通过 Gauss-Newton 优化得到高度准确和鲁棒的跟踪性能,特别是在有杂乱背景,异质对象和局部遮挡的情况下,该算法表现出色。
Jul, 2018
我们提出了一种从单目 RGB 视频中重建自由移动物体的方法,无需任何先验信息,通过基于隐式神经表示同时优化对象的形状和姿态,其中方法的关键是一个虚拟摄像机系统,显著减小了优化的搜索空间。通过在 HO3D 数据集和佩戴在头部设备上捕获的主观 RGB 序列上的评估,我们证明了该方法明显优于大多数方法,并且与假设先验信息的最新技术相媲美。
May, 2024
本文使用 Canny-VO 作为 RGBD 视觉里程计系统,并将它应用于自由曲线注册的经典问题。针对边缘注册中常用距离变换的两种替代方法提出了 Approximate Nearest Neighbour Fields 和 Oriented Nearest Neighbour Fields。为了保证系统在异常值和噪声存在的情况下的鲁棒性,注册问题被形式化为最大后验概率问题,并通过迭代重新加权最小二乘法来解决。最后在公共 SLAM 基准序列上进行了广泛评估,证明了该系统具有最先进的性能和优于欧几里德距离场的特点。
Dec, 2020
本研究提出了一种基于深度学习的模型,用于估计连续 RGB-D 图像之间的场景流,可以将场景分成多个刚体运动的对象,利用编码和解码阶段,得到了像素级目标中心、运动和旋转估计,并在大规模合成和真实数据集上测试了模型性能。
Apr, 2018
提出了一种新的直接稀疏视觉里程计公式,将全直接概率模型(最小化光度误差)与所有模型参数(包括几何结构 - 在参考帧中表示为反深度 - 和相机运动)的一致联合优化相结合。
Jul, 2016
提出了一种利用单个 RGB 图像来检索机器人手臂的关节角度的新方法,该方法基于运动规划和控制算法所需的准确联合角度数据的收集,将机器人运动与物理空间中的距离几何表示联系起来,利用机器人的运动学模型训练一个浅层神经网络来预测结构关键点间的距离,并通过多维缩小和简单的逆运动学过程来恢复关节角度。本文在 Franka Emika Panda 手臂的真实 RGB 图像上展示了该方法的高效性和稳健的泛化能力,以及该方法可以轻松地与密集的细化技术相结合以获得更好的结果。
Jan, 2023
本文提出了一种基于外部估计的光流场而不是手工特征对应的密集间接视觉里程计方法,将其定义为概率模型,并开发了一种广义 EM 公式用于联合推断相机运动、像素深度和运动跟踪置信度。通过自适应的对数 - 对数逻辑分布模型对我们的推理框架进行监督,充分考虑残差模型的不确定性。此外,对数 - 对数逻辑残差模型很好地推广了不同的光流方法,使我们的方法模块化和不可知光流估计器的选择。我们的实现在 TUM RGB-D 和 KITTI 里程碑测试中均取得了排名前列的结果,其 GPU 友好,具有线性计算和存储增长。
Apr, 2021
本文提出了一项新颖的自监督学习模型,用于从视频中估计连续的自我运动。该模型通过观察 RGBD 或 RGB 视频流来学习估计相机运动,并确定正确预测未来帧外观的平移和旋转速度。我们的方法不同于其他自我监督结构运动的最近工作,其使用连续运动表述和刚体运动领域的表示,而不是直接预测相机参数。为了使估计在具有多个移动物体的动态环境中具有鲁棒性,我们介绍了一个简单的双组分分割过程,将刚性背景环境与动态场景元素分离。我们在几个基准自我运动数据集上展示了自我训练模型的最新准确性,并突出了该模型提供超强的旋转精度和对非刚性场景运动的处理能力。
Jun, 2018
研究使用光流残差技术实现动态语义感知的 RGB-D 环境下的 SLAM,同时实现动静分割、相机运动估计和静态背景重建。实验证明该方法在动态和静态环境中都比现有的方法具有更高的精度和效率。
Mar, 2020