Far3Det: 远距离 3D 检测
基于 LiDAR 的 3D 检测在自动导航中起着至关重要的作用。本文通过对长距离检测数据集 Argoverse 2.0 的经验性分析,揭示了近场和远场 3D 检测的不同特征,并提出了一种基于集成模型的有效技术,使长距离检测的效率提高了 33%,准确性提高了 3.2% CDS。
Aug, 2023
提出了一种名为 Far3D 的新型稀疏查询框架,通过利用高质量的二维对象先验信息生成三维自适应查询,引入了透视感知聚合模块来高效捕获长距离对象在不同视角和尺度上的区别性特征,并通过范围调制的三维去噪方法解决了长距离任务中查询错误传播和收敛问题,相较于基于 LiDAR 的方法,在覆盖范围 150 米的具有挑战性的 Argoverse 2 数据集上表现出最先进的性能,并且在 nuScenes 数据集上相比之前的方法也展示了更好的性能。
Aug, 2023
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
我们的研究论文提出了一种利用 LiDAR 和图像相结合的方法来解决长距离 3D 物体检测的问题,通过组合两种不同范围的专家网络和引入 Multimodal Virtual Points(MVP)进行数据增强,我们的方法在长距离上达到了最先进的性能。
Oct, 2023
自动驾驶车辆要准确检测常见和罕见类别的物体以确保安全导航,因此出现了长尾三维物体检测(LT3D)的问题。本文研究了 RGB-LiDAR 融合的简单的后期融合框架,通过集成独立训练的 RGB 和 LiDAR 检测器,利用大规模单模数据集显著提高了罕见类别的检测性能,在几个关键组件方面进行了探讨,包括训练二维或三维 RGB 检测器、在三维空间中匹配 RGB 和 LiDAR 检测结果或在二维图像平面中匹配、以及如何概率地融合匹配的检测结果。大量实验结果显示,二维 RGB 检测器的识别准确性优于三维 RGB 检测器,基于二维图像平面的匹配可以减轻深度估计误差,使用概率校准的方法将分数融合可以达到最先进的 LT3D 性能。我们的后期融合方法在 nuScenes LT3D 基准测试中取得了 51.4 mAP 的成绩,相比之前的工作提高了 5.9 mAP。
Dec, 2023
本文提出了一个基于 LiDAR 的单级别无锚点 3D 物体检测方法 --RangeDet。 与以前的方法相比,最显著的区别是我们的方法基于范围视角表现,使用常用的像素或 Bird's Eye View (BEV) 表示方法相比,范围视角表述更为紧凑且没有量化误差,该方法在 Waymo Open Dataset 中进行了测试,表现较以前的方法有很大改进。
Mar, 2021
该研究提出一种基于单目 RGB 图像的三维车辆检测方法,为此创建了 Cityscapes 3D 数据集,包含了所有类型车辆的三维标注信息,使得与基于 lidar 的方法相比具有更高效率和更大范围的标注信息。此外,研究将 2D 实例分割与 3D 包围盒成对提供,以便多任务学习。这对自动驾驶技术有着很重要的意义。
Jun, 2020
通过稀疏编码器与稀疏实例识别(SIR)模块,提出了一种全稀疏三维目标检测器(FSD),该方法可以在自动驾驶的远距离感知任务中实现高效的检测,具有状态 - of-the-art 性能并且比密集对应物快 2.4 倍。
Jul, 2022
本研究提出了一种使用单目摄像头和 LiDAR 数据结合的机器学习技术,通过以国际排名领先的二维物体探测器生成的锥体区域来分割 LiDAR 点云,从而检测运动平台周围的车辆的 3D 边界框参数, 最终验证集准确率达到 87.1%。
May, 2021
使用仅有的 2D 监督信息,我们提出了 LR3D 框架,通过学习远距离物体的深度估计,并使得基于相机的方法能够在 200 米以上的距离实现与完整 3D 监督相当的准确性。
Mar, 2024