联合三维物体检测和语义分割的传感器融合
本文提出了一种新颖的三维物体检测器,利用雷达和摄像头实现非常精确的定位,设计了一种端到端可学习的架构,利用连续卷积在不同分辨率级别上融合图像和雷达特征图,其实现了对离散状态图像特征和连续几何信息的编码,从而能够基于多种传感器设计新颖,可靠且高效的端到端可学习的三维目标检测器,实验结果显示,在 KITTI 和大规模三维目标检测基准测试中,相对于现有技术有显著的提高。
Dec, 2020
本研究提出了一种使用单目摄像头和 LiDAR 数据结合的机器学习技术,通过以国际排名领先的二维物体探测器生成的锥体区域来分割 LiDAR 点云,从而检测运动平台周围的车辆的 3D 边界框参数, 最终验证集准确率达到 87.1%。
May, 2021
本文旨在研究基于传感器融合技术的三维语义分割,将 RGB 图像转化为 LiDAR 所使用的极坐标网格映射表示,并设计了早期和中期融合架构,同时提出了融合两种算法的混合融合结构。在 KITTI 数据集中评估了所提出算法的效果,并相对于仅使用 LiDAR 的基线模型,在两种最先进的算法 SqueezeSeg 和 PointSeg 上分别提高了 10% 的分割精度。
Jun, 2019
DeepFusion 提出了一种模块化的多模态架构,用于融合 lidar,相机和雷达以进行 3D 物体检测,实验结果证明了其灵活性和有效性,并探讨了远距离汽车检测和所需的激光点密度对 3D 物体检测的影响。
Sep, 2022
提出 LiRaFusion 以解决基于 LiDAR 和雷达的三维目标检测的问题,并通过早期融合模块和中期融合模块来改善特征提取能力,最终在 nuScenes 上取得了显著改进。
Feb, 2024
使用 PointFusion 实现基于图像和点云信息的 3D 对象检测方法,其中 CNN 和 PointNet 网络分别处理图像和点云数据,再由新型融合网络将二者输出结合起来预测多个 3D 框及其置信度,相比现有方法在 KITTI 和 SUN-RGBD 数据集上实现更好的检测结果且无需特定模型调整。
Nov, 2017
本研究针对自动驾驶的核心传感器进行研究,发现同时融合相机和 LiDAR 两种模式可以显著提升其性能。然而,由于当前数据集来自于昂贵的数据收集车辆,无法完全反映真实数据分布。 因此,我们提出了一种系统性的鲁棒性基准测试工具包,并在 nuScenes 和 Waymo 中建立了鲁棒性基准测试,针对当前的融合方法进行综合性分析。最后,我们提出了一种高效的鲁棒性训练策略。
May, 2022
本文章提出了一种基于感知信息的多传感器融合策略(PMF),用于自动驾驶等应用中的 3D LiDAR 语义分割,通过两个模态的外观和空间深度信息进行感知信息融合并且提出了感知相关的损失函数用于衡量两种模式之间的差异性,实验结果证明了该方法的优越性。
Jun, 2021
本文提出了一种名为 SupFusion 的新型训练策略,为 LiDAR-Camera 融合提供辅助的特征级监督并显著提升检测性能。该策略包括了一种称为 Polar Sampling 的数据增强方法,通过稠密化稀疏物体和训练辅助模型生成高质量特征来进行监督。这些特征被用于训练 LiDAR-Camera 融合模型,其中融合特征被优化以模拟生成的高质量特征。此外,本文还提出了一种简单而有效的深度融合模块,与之前的融合方法相比,连续获得更优越的性能。通过这种方式,我们的提议具有以下优势:首先,SupFusion 引入了辅助的特征级监督,可以提升 LiDAR-Camera 检测性能而不增加额外的推断成本。其次,所提出的深度融合模块可以持续提升检测器的能力。我们的提议 SupFusion 和深度融合模块是即插即用的,我们进行了大量实验证明了其有效性。特别是基于多个 LiDAR-Camera 3D 检测器,在 KITTI 基准测试中获得了约 2% 的 3D mAP 改进。
Sep, 2023
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021