FGFusion:用于三维物体检测的细粒度激光雷达 - 摄像头融合
本文介绍了一种通过将 lidar 特征与摄像头特征融合的方法来提高自动驾驶 3D 检测性能。基于 InverseAug 和 LearnableAlign,提出了一系列被称为 DeepFusion 的通用多模态 3D 检测模型,实现了对 PointPillars、CenterPoint 和 3D-MAN 基线的有效改进,表现出对输入异常和数据偏移的强大鲁棒性和最先进的性能,可公开获取代码
Mar, 2022
基于激光雷达和摄像头信息的融合对于实现自动驾驶系统中的准确可靠的三维物体检测至关重要。在该文中,提出了一种新颖的框架,其中利用了深度信息和激光雷达与摄像头之间的交互,实现更全面的多模态融合特征,并在 nuScenes 测试基准中取得了最新的 3D 目标检测结果,同时无需使用测试时间增广和集成技术。
Sep, 2022
DeepFusion 提出了一种模块化的多模态架构,用于融合 lidar,相机和雷达以进行 3D 物体检测,实验结果证明了其灵活性和有效性,并探讨了远距离汽车检测和所需的激光点密度对 3D 物体检测的影响。
Sep, 2022
使用 PointFusion 实现基于图像和点云信息的 3D 对象检测方法,其中 CNN 和 PointNet 网络分别处理图像和点云数据,再由新型融合网络将二者输出结合起来预测多个 3D 框及其置信度,相比现有方法在 KITTI 和 SUN-RGBD 数据集上实现更好的检测结果且无需特定模型调整。
Nov, 2017
利用微波雷达和摄像机的互补性,基于深度学习的雷达摄像机三维物体检测方法可以可靠地在低能见度条件下生成准确的检测结果。这使得它们成为自动驾驶车辆感知系统中的首选,特别是由于两种传感器的综合成本比激光雷达更便宜。我们提出了 ClusterFusion,一种利用雷达点云的局部空间特征的架构,在将特征投影到图像平面之前,对雷达点云聚类进行特征提取。ClusterFusion 在 nuScenes 数据集的测试集中取得了最先进的性能,nuScenes 检测分数(NDS)为 48.7%。我们还研究了不同雷达特征提取策略在点云聚类上的性能:一种手工策略,一种基于学习的策略以及两者的组合,并发现手工策略提供了最佳的性能。本研究的主要目标是探索使用雷达点云聚类直接提取雷达的局部空间和逐点特征,用于在图像平面上进行交叉模态特征融合的雷达 - 单目摄像机三维物体检测方法。
Sep, 2023
本文提出了一种名为 MMFusion 的多模态 3D 检测框架,以在复杂场景中实现 LiDAR 和图像的准确融合,通过实验证明,该框架不仅优于现有基准,而且尤其适用于在 KITTI 基准上检测骑自行车和行人。
Mar, 2023
本研究提出了一种使用单目摄像头和 LiDAR 数据结合的机器学习技术,通过以国际排名领先的二维物体探测器生成的锥体区域来分割 LiDAR 点云,从而检测运动平台周围的车辆的 3D 边界框参数, 最终验证集准确率达到 87.1%。
May, 2021
本文提出了一种新颖的三维物体检测器,利用雷达和摄像头实现非常精确的定位,设计了一种端到端可学习的架构,利用连续卷积在不同分辨率级别上融合图像和雷达特征图,其实现了对离散状态图像特征和连续几何信息的编码,从而能够基于多种传感器设计新颖,可靠且高效的端到端可学习的三维目标检测器,实验结果显示,在 KITTI 和大规模三维目标检测基准测试中,相对于现有技术有显著的提高。
Dec, 2020
使用深度学习方法结合 LIDAR 和相机图像,开发了一种道路检测方法,通过使用多模式信息,新提出的交叉融合 FCN 实现了更高的准确性,表现优异并跻身最佳方法之列。
Sep, 2018
该论文着眼于深度学习在相机 - LiDAR 融合数据处理中的应用,对深度补全、物体检测、语义分割、跟踪和在线跨传感器校准等方面的方法进行了深入评估和比较。该研究提出了当前学术研究与实际应用之间存在的差距和未被重视的挑战,并提出了有前途的研究方向。
Apr, 2020