多任务多传感器融合的三维物体检测
本文提出了一种新颖的三维物体检测器,利用雷达和摄像头实现非常精确的定位,设计了一种端到端可学习的架构,利用连续卷积在不同分辨率级别上融合图像和雷达特征图,其实现了对离散状态图像特征和连续几何信息的编码,从而能够基于多种传感器设计新颖,可靠且高效的端到端可学习的三维目标检测器,实验结果显示,在 KITTI 和大规模三维目标检测基准测试中,相对于现有技术有显著的提高。
Dec, 2020
提出了一种新的基于检测的跟踪法,可以利用摄像头和 LIDAR 数据来产生非常精确的三维轨迹。为此,我们将问题制定为线性规划问题,可以解决该问题,并学习卷积网络进行检测以及匹配,并在具有挑战性的 KITTI 数据集上评估模型并展示了极具竞争力的结果。
Jun, 2018
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
该论文提出了一种基于多任务学习的编码器模型的方法,通过特征共享来同时进行航空深度完成和目标检测,进而提高无人机 3D 建图的资源利用效率,该方法实验结果表明在特定情况下,比单任务的深度完成算法表现更好。
Apr, 2023
本文介绍了自动驾驶所使用的流行传感器、它们的数据性质以及相应的目标检测算法。还讨论了用于评估多模态 3D 目标检测算法的现有数据集。接着对基于多模态融合的 3D 检测网络进行了回顾,并介绍了它们的融合阶段、融合输入和融合粒度以及这些设计选择如何随着时间和技术而演变。最后讨论了面临的挑战以及可能的解决方案。希望本文能帮助研究人员了解多模态 3D 目标检测领域并进行相关研究。
Jun, 2021
提出了一种基于多视图轴自注意力和局部 ROI 自注意力的多路径多表示 3D 物体检测方法,通过稀疏浮动查询和密集 BEV 查询的多重表示进一步提高了性能,对于自动驾驶系统具有重要意义。
Feb, 2023
提出了一种基于多摄像头的 3D 对象检测框架,使用基于上下文注意力的网络,直接在 3D 空间中进行边界框的预测,实现了全球最佳性能。
Oct, 2021
本文提出了一种在自动驾驶背景下具有多传感器优化的三维目标检测系统,其中单眼相机可以作为二维目标提议和初步三维边界框预测,而立体相机和 LiDAR 则被视为自适应插件传感器以优化 3D 边界框本地化性能。
Sep, 2019
TaskPrompter 是一种多任务提示框架,通过使用 Cityscapes-3D 数据集实现联合 2D-3D 任务学习,以实现单眼 3D 车辆检测、语义分割和单眼深度估计的预测,为开发自动驾驶系统做出了积极的贡献,相较于单任务最先进方法表现出更强的性能,并在挑战性的 3D 检测和深度估计任务上建立了新的最先进结果。
Apr, 2023
本文提出了一种基于 LiDAR 传感器和多任务网络的感知系统,用于自主驾驶中的目标检测和道路识别,取得了良好的实验效果和在线定位能力。
Mar, 2021