多模态虚拟点 3D 检测
自动驾驶车辆要准确检测常见和罕见类别的物体以确保安全导航,因此出现了长尾三维物体检测(LT3D)的问题。本文研究了 RGB-LiDAR 融合的简单的后期融合框架,通过集成独立训练的 RGB 和 LiDAR 检测器,利用大规模单模数据集显著提高了罕见类别的检测性能,在几个关键组件方面进行了探讨,包括训练二维或三维 RGB 检测器、在三维空间中匹配 RGB 和 LiDAR 检测结果或在二维图像平面中匹配、以及如何概率地融合匹配的检测结果。大量实验结果显示,二维 RGB 检测器的识别准确性优于三维 RGB 检测器,基于二维图像平面的匹配可以减轻深度估计误差,使用概率校准的方法将分数融合可以达到最先进的 LT3D 性能。我们的后期融合方法在 nuScenes LT3D 基准测试中取得了 51.4 mAP 的成绩,相比之前的工作提高了 5.9 mAP。
Dec, 2023
无人驾驶车辆中的目标检测与跟踪任务主要依靠相机和 LiDAR 等多种传感器,本研究在使用 LiDAR 点云的新编码方式基础上,通过推断自动驾驶车辆附近不同类别物体的位置,实现了对场景中物体位置和方向的预测。
Dec, 2023
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
提出了一种结合单目和基于点云的三维检测的平衡方法,使用低成本、低分辨率的传感器获取仅有 512 个点,然后将这有限的三维信息与单张图像结合重建完整的三维点云,通过与多模态现成的三维检测器结合使用,使得三维检测的准确率相比于最新的单目检测方法提高了 20%,相对于基准多模态方法在 KITTI 和 JackRabbot 数据集上提高了 6% 到 9%。
Apr, 2024
本文提出了一种在自动驾驶背景下具有多传感器优化的三维目标检测系统,其中单眼相机可以作为二维目标提议和初步三维边界框预测,而立体相机和 LiDAR 则被视为自适应插件传感器以优化 3D 边界框本地化性能。
Sep, 2019
本文旨在研究基于传感器融合技术的三维语义分割,将 RGB 图像转化为 LiDAR 所使用的极坐标网格映射表示,并设计了早期和中期融合架构,同时提出了融合两种算法的混合融合结构。在 KITTI 数据集中评估了所提出算法的效果,并相对于仅使用 LiDAR 的基线模型,在两种最先进的算法 SqueezeSeg 和 PointSeg 上分别提高了 10% 的分割精度。
Jun, 2019
我们的研究论文提出了一种利用 LiDAR 和图像相结合的方法来解决长距离 3D 物体检测的问题,通过组合两种不同范围的专家网络和引入 Multimodal Virtual Points(MVP)进行数据增强,我们的方法在长距离上达到了最先进的性能。
Oct, 2023
本研究讨论了一种实时的用于自动驾驶场景的动态物体检测算法,该算法利用了先前建立的 Lidar 点云的静态背景模型,并将动态物体检测视为背景减法问题。研究者提出了拒绝级联结构用于对道路区域和其他 3D 区域分别进行减法操作,该算法基于 CARLA 模拟器进行了初步实现和准确度评估。
Sep, 2018
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
提出了一种基于多视角和弱标签的纯 RGB 序列的自监督 3D 物体检测方法,其在 KITTI 3D 数据集上的性能与使用激光雷达或立体图像的最先进的自监督方法相当。
May, 2023