高级相机 - LiDAR 融合与机器学习的 3D 物体检测
无人驾驶车辆中的目标检测与跟踪任务主要依靠相机和 LiDAR 等多种传感器,本研究在使用 LiDAR 点云的新编码方式基础上,通过推断自动驾驶车辆附近不同类别物体的位置,实现了对场景中物体位置和方向的预测。
Dec, 2023
近年来,自动驾驶领域取得了显著进展,本文提出一种新颖的修改方法,利用摄像机和激光雷达信息,将额外的分支整合到目标检测网络中,用于在同一车辆中的相邻摄像头之间重新识别物体,同时提高基线 3D 目标检测结果的质量。经过广泛实验验证,该方法在 2D 和 3D 领域的有效性得到证实,结果表明该方法优于传统的非最大抑制(NMS)技术,在重叠区域的车辆类别中改进超过 5%。
Oct, 2023
提升单目深度学习算法中对于三维场景物体检测的表现,通过伪 LIDAR 点云实现与 LIDAR 算法的融合,最终在 KITTI 基准测试中取得了最优结果。
Mar, 2019
本文提出了一种在自动驾驶背景下具有多传感器优化的三维目标检测系统,其中单眼相机可以作为二维目标提议和初步三维边界框预测,而立体相机和 LiDAR 则被视为自适应插件传感器以优化 3D 边界框本地化性能。
Sep, 2019
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一种新颖的三维物体检测器,利用雷达和摄像头实现非常精确的定位,设计了一种端到端可学习的架构,利用连续卷积在不同分辨率级别上融合图像和雷达特征图,其实现了对离散状态图像特征和连续几何信息的编码,从而能够基于多种传感器设计新颖,可靠且高效的端到端可学习的三维目标检测器,实验结果显示,在 KITTI 和大规模三维目标检测基准测试中,相对于现有技术有显著的提高。
Dec, 2020
提出了一种结合单目和基于点云的三维检测的平衡方法,使用低成本、低分辨率的传感器获取仅有 512 个点,然后将这有限的三维信息与单张图像结合重建完整的三维点云,通过与多模态现成的三维检测器结合使用,使得三维检测的准确率相比于最新的单目检测方法提高了 20%,相对于基准多模态方法在 KITTI 和 JackRabbot 数据集上提高了 6% 到 9%。
Apr, 2024
该论文探讨了基于 4D 成像雷达和摄像头的图像视图转换策略并提出一种 “雷达占用格辅助深度采样” 的方法,该方法在 VoD 和 TJ4DRadSet 数据集上的实验结果均表现出较高水平的 3D 物体检测性能。
Jul, 2023
DeepFusion 提出了一种模块化的多模态架构,用于融合 lidar,相机和雷达以进行 3D 物体检测,实验结果证明了其灵活性和有效性,并探讨了远距离汽车检测和所需的激光点密度对 3D 物体检测的影响。
Sep, 2022
本文提出了一种将图像数据与 LiDAR 数据融合的方法,并展示了这种传感器融合方法在长距离检测表现方面提高了模型检测能力。此外,文中还扩展了模型的功能,使其能够进行 3D 语义分割,并在大型基准数据集上展示了我们的方法在保持低运行时间的同时,在目标检测和语义分割方面实现了最先进的性能。
Apr, 2019