单目图像和稀疏雷达数据的深度估计
本文提出了一种使用雷达图像融合进行深度估计的方法,该方法通过解决稀疏雷达测量的不确定垂直方向来融合图像特征和雷达深度,通过准确的 LiDAR 测量来确定可能正确的雷达方向,实验证明我们的方法相较于基准方法可以提高量化和定性结果。
Mar, 2024
基于稀疏雷达点云和单视角图像的度量密集深度估计的新方法,使用雷达 — 相机框架对深度估计进行全局比例校准、稀疏雷达点与图像补丁的关联学习进行准密度尺度估计以及通过尺度映射学习对密集深度进行局部尺度细化,提高深度估计精度。在挑战性数据集 nuScenes 和自行收集的 ZJU-4DRadarCam 数据集上,与最先进的雷达 — 相机深度估计方法相比,我们提出的方法将深度估计的均方绝对误差 (MAE) 分别降低了 25.6% 和 40.2%。
Jan, 2024
本研究提出了一种深度估计方法,利用来自双目立体视觉和稀疏激光雷达或深度相机的测量信息。通过融合各传感器的优势,即精确但稀疏的测量信息和模糊但密集的立体信息,并采用各向异性扩散和半全局匹配技术进行有效地融合。该方法在 KITTI 2015 和 Middlebury 2014 数据集上评估,表现显著,而且使用 PMDTec Monstar 传感器提供了定量结果。
Sep, 2018
本文提出一种增强单眼深度估计的方法,该方法采用 3D 点作为深度指导,并引入一种轻量级、高效的多尺度 3D 点融合网络,能够处理极其稀疏和不均匀分布的点云,实现了高精度深度估计。该方法优于当前一些基于深度学习的多视角立体和结构从运动方法,不仅精度更高,而且压缩性更好。
Dec, 2020
本文论述了如何通过使用 RGB-D 原始数据,采用单个深度回归网络来学习来自稀疏深度范例的密集深度估计,并研究了样本数量对预测准确性的影响,提出的算法有两个应用:转换稀疏地图为密集地图和 LiDAR 的超分辨率。
Sep, 2017
提出了一种新的方法,利用 RGB 图像指导生成稀疏的 LiDAR 地图的精确深度预测,通过融合 RGB 图像引导可以提高深度预测的准确性。该方法的实现在 KITTI 深度完成基准测试中得到了最佳成绩。
Feb, 2019
本文提出了一种卷积神经网络,它可以基于高分辨率强度图像得出上采样一系列稀疏范围测量的上下文线索,并且在网络中分离、融合两种模态的上下文线索,旨在利用两种模态之间的关系来产生准确的结果,同时尊重显著的图像结构。通过实验结果表明,该方法与当前最先进的方法相媲美,并可在多个数据集上进行有效泛化。
Feb, 2019
该研究介绍了一种两阶段、端到端可训练的自信感知融合网络 (CaFNet),用于通过将 RGB 图像与稀疏且含噪的雷达点云数据相结合,进行密集的深度估计,并通过滤除雷达噪声,提高深度图的可靠性。在 nuScenes 数据集上进行的评估表明,该方法在平均绝对误差 (MAE) 和均方根误差 (RMSE) 方面的性能优于当前领先模型 3.2% 和 2.7%。
Jun, 2024
通过使用深度神经网络,并在不同的网络级别中应用自注意力机制以及交叉注意力机制,我们提出了一种名为 FusionRAFT 的方法,实现了早期传感器模态(RGB 和深度)之间的信息融合,以解决 RGB 信息不可靠的问题,在主动配准中取得了比最近方法更好的性能。
Jul, 2023