基于稀疏雷达点云和单视角图像的度量密集深度估计的新方法,使用雷达 — 相机框架对深度估计进行全局比例校准、稀疏雷达点与图像补丁的关联学习进行准密度尺度估计以及通过尺度映射学习对密集深度进行局部尺度细化,提高深度估计精度。在挑战性数据集 nuScenes 和自行收集的 ZJU-4DRadarCam 数据集上,与最先进的雷达 — 相机深度估计方法相比,我们提出的方法将深度估计的均方绝对误差 (MAE) 分别降低了 25.6% 和 40.2%。
Jan, 2024
利用深度神经网络,通过融合单眼图像和雷达数据点,探索实现更准确的深度估计。我们对来自不同角度的 RGB 图像和雷达测量的融合进行了全面的研究,并提出了一种基于观察结果的有效解决方案。在 nuScenes 数据集上的实验表明,我们的方法优于现有的融合方法,同时我们还提供了详细的剖析研究以展示我们的方法中各组成部分的有效性。
Sep, 2020
本篇论文提出了一种基于变形金刚网络的 3D 物体检测模型 REDFormer,该模型通过使用鸟瞰相机和雷达融合,解决低能见度条件下自动驾驶系统的感知问题,并且在多雷达点云数据、多种天气和时间数据的 nuScenes 数据集上进行验证,相比其他最先进模型,该模型在低能见度情况下表现出更高的检测精度。
May, 2023
本研究提出了一种深度估计方法,利用来自双目立体视觉和稀疏激光雷达或深度相机的测量信息。通过融合各传感器的优势,即精确但稀疏的测量信息和模糊但密集的立体信息,并采用各向异性扩散和半全局匹配技术进行有效地融合。该方法在 KITTI 2015 和 Middlebury 2014 数据集上评估,表现显著,而且使用 PMDTec Monstar 传感器提供了定量结果。
Sep, 2018
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
Dec, 2018
该论文提出一种在机器人应用中提高单目深度估计精度的方法,通过残差神经网络,以 2D 激光测距仪的观察为基础,结合分类和回归损失进行连续深度估计,在障碍物避免中具有潜在的应用价值。
Oct, 2016
为了提高自动驾驶安全性,研究在不需要完全预先校准的情况下,利用小视场摄像头,通过新算法计算度量深度,实现了长距离物体场景下高精度的深度图输出。
Apr, 2020
本文提出了一种使用雷达图像融合进行深度估计的方法,该方法通过解决稀疏雷达测量的不确定垂直方向来融合图像特征和雷达深度,通过准确的 LiDAR 测量来确定可能正确的雷达方向,实验证明我们的方法相较于基准方法可以提高量化和定性结果。
Mar, 2024
通过使用带有闸门的相机和高分辨率立体 HDR RCCB 相机,结合深度估计方法,实现了长距离高精度的深度估计。
May, 2024
利用多模态数据结合深度学习模型进行密集三维重建,从而提高自动驾驶中的标注验证、数据扩充、缺失 LiDAR 系统的地面真值注释以及自动标记准确性的应用效果。
Feb, 2024