LiDAR R-CNN:一种高效且通用的三维物体检测器
无人驾驶车辆中的目标检测与跟踪任务主要依靠相机和 LiDAR 等多种传感器,本研究在使用 LiDAR 点云的新编码方式基础上,通过推断自动驾驶车辆附近不同类别物体的位置,实现了对场景中物体位置和方向的预测。
Dec, 2023
提出了一种结合单目和基于点云的三维检测的平衡方法,使用低成本、低分辨率的传感器获取仅有 512 个点,然后将这有限的三维信息与单张图像结合重建完整的三维点云,通过与多模态现成的三维检测器结合使用,使得三维检测的准确率相比于最新的单目检测方法提高了 20%,相对于基准多模态方法在 KITTI 和 JackRabbot 数据集上提高了 6% 到 9%。
Apr, 2024
本文提出了 LaserNet,一种 3D 物体检测的计算有效方法,它通过在传感器的本地范围视图中处理 LiDAR 数据来提高效率,并使用全卷积网络来预测每个点的 3D 框的多模式分布,然后高效地融合这些分布以生成每个对象的预测,实验证明这种方法比其他方法具有显著更低的运行时间,并且在大型数据集上具有比其他检测器更好的性能。
Mar, 2019
本文将全卷积网络技术扩展到三维,并将其应用于点云数据的车辆检测任务中,实验结果表明该方法在自动驾驶领域的 KITTI 数据集上表现较之前的点云检测方法有显著提升。
Nov, 2016
本文提出了基于 pillar 的算法模型在 LiDAR 3D 目标检测中的效果以及在架构和训练等方面的现代化设计,通过扩大感受野等方法取得了显著提升,在 Waymo 开放数据集和 nuScenes 数据集上实现了最优性能。
May, 2023
本文提出了一种基于可微分的表示变换模块的框架,使得 3D 物体检测与深度估计的深度神经网络能够在此统一的框架中进行端到端的训练,该框架与大多数目前最先进的神经网络兼容,并在 KITTI 基于图像的 3D 物体检测排行榜上获得最高名次。
Apr, 2020
本研究提出一种新的两阶段方法,其中包括点云完成模块以恢复高质量的点密集提案和整个视图,同时设计了图神经网络模块,实现了全局本地关联机制和多尺度图形的上下文聚合,显著强化编码特征,实验表明,所提出的方法在 KITTI 基准测试中优于之前的基线算法,突出了其有效性。
Dec, 2020
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
使用激光雷达基于点云数据构建一个能够实时 3D 检测物体的深度学习算法,该算法使用了 Euler-Region-Proposal Network (E-RPN) 技术,确保了高准确性和高效率。该算法在 KITTI 基准测试中表现出色。
Mar, 2018