三维物体检测范围的实证分析
通过 nuScenes 数据集开发出一种新的远场三维检测评估协议,以评估现有方法的性能,其结论是高分辨率 RGB 可以提高远场物体的三维检测,而 RGB 和激光雷达检测器的融合可以比目前的方法获得更好的检测性能。
Nov, 2022
我们的研究论文提出了一种利用 LiDAR 和图像相结合的方法来解决长距离 3D 物体检测的问题,通过组合两种不同范围的专家网络和引入 Multimodal Virtual Points(MVP)进行数据增强,我们的方法在长距离上达到了最先进的性能。
Oct, 2023
通过稀疏编码器与稀疏实例识别(SIR)模块,提出了一种全稀疏三维目标检测器(FSD),该方法可以在自动驾驶的远距离感知任务中实现高效的检测,具有状态 - of-the-art 性能并且比密集对应物快 2.4 倍。
Jul, 2022
提出了一种名为 Far3D 的新型稀疏查询框架,通过利用高质量的二维对象先验信息生成三维自适应查询,引入了透视感知聚合模块来高效捕获长距离对象在不同视角和尺度上的区别性特征,并通过范围调制的三维去噪方法解决了长距离任务中查询错误传播和收敛问题,相较于基于 LiDAR 的方法,在覆盖范围 150 米的具有挑战性的 Argoverse 2 数据集上表现出最先进的性能,并且在 nuScenes 数据集上相比之前的方法也展示了更好的性能。
Aug, 2023
该研究提出一种新的方法,利用适合扫描模式的坐标系来分析自动驾驶中 LiDAR 传感器所获取到的 3D 数据,并引入了基于范围的卷积方法,其能够根据自我车辆与物体的距离和物体的比例来调整感受野。实验结果在 nuscenes 竞赛上表现良好,可以与现有的先进架构相媲美,而该架构也可以轻松地整合到其他管道中。
Dec, 2020
无人驾驶车辆中的目标检测与跟踪任务主要依靠相机和 LiDAR 等多种传感器,本研究在使用 LiDAR 点云的新编码方式基础上,通过推断自动驾驶车辆附近不同类别物体的位置,实现了对场景中物体位置和方向的预测。
Dec, 2023
本文通过数据角度分析了现有的 LiDAR 3D 目标检测算法尤其是对于离传感器较远区域性能欠佳的问题,发现检测模型中存在对密集物体的学习偏差,提出了一种基于模型无关的点云密度调整预处理机制,使用迭代 MCMC 优化估计不同距离范围内点密度的最优参数,实验证明这种技术可以提高现有检测器的性能。
Jun, 2023
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
自动驾驶车辆要准确检测常见和罕见类别的物体以确保安全导航,因此出现了长尾三维物体检测(LT3D)的问题。本文研究了 RGB-LiDAR 融合的简单的后期融合框架,通过集成独立训练的 RGB 和 LiDAR 检测器,利用大规模单模数据集显著提高了罕见类别的检测性能,在几个关键组件方面进行了探讨,包括训练二维或三维 RGB 检测器、在三维空间中匹配 RGB 和 LiDAR 检测结果或在二维图像平面中匹配、以及如何概率地融合匹配的检测结果。大量实验结果显示,二维 RGB 检测器的识别准确性优于三维 RGB 检测器,基于二维图像平面的匹配可以减轻深度估计误差,使用概率校准的方法将分数融合可以达到最先进的 LT3D 性能。我们的后期融合方法在 nuScenes LT3D 基准测试中取得了 51.4 mAP 的成绩,相比之前的工作提高了 5.9 mAP。
Dec, 2023
本文提出了一个基于 LiDAR 的单级别无锚点 3D 物体检测方法 --RangeDet。 与以前的方法相比,最显著的区别是我们的方法基于范围视角表现,使用常用的像素或 Bird's Eye View (BEV) 表示方法相比,范围视角表述更为紧凑且没有量化误差,该方法在 Waymo Open Dataset 中进行了测试,表现较以前的方法有很大改进。
Mar, 2021