2D3D-MatchNet:学习在 2D 图像和 3D 点云之间匹配关键点
采用 2D3D-MATR 方法,我们提出了一种无需检测的方法,用于图像和点云之间的准确且鲁棒的配准。该方法在粗匹配的基础上,通过学习全局上下文约束和跨模态相关性,通过 transformer 实现多尺度金字塔和图像块焦点学习,解决了尺度不确定性问题,从而获得了比之前的最优模型 P2-Net 更高的配准率和稳定度。
Aug, 2023
提出了一个双重完全卷积框架,用于建立 2D 图像和 3D 点云之间的精细对应关系,以直接匹配像素和点,并实现了室内视觉定位的任务中领先的最优结果。
Mar, 2021
本论文提出了一种基于端到端学习框架的关键点检测及其表示的方法,以适应于三维深度地图或扫描,通过采样相应的区域提案实现正负样本的自动获取,并在多个基准数据集上进行匹配实验,表明该方法相对于现有方法具有明显的改进。
Feb, 2018
本文提出了一种新型实用的学习机制,利用三维全卷积网络,旨在稠密地预测每个三维点的检测分数和描述特征,并通过自监督的检测器损失,在训练过程中指导即兴的特征匹配结果。最后,我们的方法在 3DMatch 和 KITTI 数据集的室内和室外场景中,均取得了最先进的结果,并在 ETH 数据集上展现了其强大的概括能力,为实现准确快速的点云对其,提出了一种可靠的特征检测器。
Mar, 2020
本文提出了一种深度 CNN 模型,该模型能够同时解决 6 自由度绝对摄像机姿态和 2D-3D 对应关系,通过全局特征匹配模块和分类模块实现了对无先验知识的 2D-3D 对应关系的盲目 PnP 问题的有效解决。
Mar, 2020
在夜间场景、恶劣天气和季节变化等苛刻条件下进行视觉定位是一项具有挑战性的任务。本研究提出了一种新颖的定位方法,通过提取可靠的半稠密的 2D-3D 匹配点来改进相机位姿估计的准确性,即使在噪声场景中也能取得显著的成果。
Feb, 2024
本研究提出了一种名为 I2PNet 的新型端对端 2D-3D 注册网络,该网络能够精确定位机器人并在相机 - LiDAR 在线校准方面表现出色。
Jun, 2023
本文介绍了一种基于深度学习的 LiDAR 测距测速 (lo) 估计方法,将 LiDAR 帧转换成图像空间并提取特征点来匹配,借助于卷积神经网络进行测距估计,并在 KITTI 测距数据集上验证了该方法的高效性。
Sep, 2020
利用物体分类内部几何规律的数据驱动姿态估计方法。首先,从 2D RGB 图像学习物体部分的姿态不变局部描述符。将这些描述符与来自固定3D 模板的关键点结合使用,生成给定单眼实际图像的关键点对应图。最后,使用这些关键点对应图,预测物体的3D 姿态。该方法在多个真实环境的视角估计数据集,如 Pascal3D + 与 ObjectNet3D 上的表现达到最佳水平,并且我们公开了所使用方法的代码以鼓励再生研究。
Sep, 2018
提出了一种基于三维点云的全工作流程,利用卷积神经网络和全卷积层来匹配三维点云,利用兴趣点体素化光滑密度值 (SDV) 表示,从而实现旋转不变性,并在 3DMatch 基准数据集上取得了 94.9% 的平均召回率,性能比同类方法提高了 20% 以上,同时实现了高效的近实时的对应点搜索。
Nov, 2018