点云画法:用于三维物体检测的连续融合技术
提出了一个称为 “FusionPainting” 的多模态融合框架,它可以在语义级别上融合 2D RGB 图像和 3D 点云以提高 3D 障碍物检测性能,并在 nuScenes 检测基准测试中显示出优于其他现有方法的性能。
Jun, 2021
多模态融合在自动驾驶的三维感知中被证明是一种有效的方法。然而,目前大多数用于 LiDAR 语义分割的多模态融合方法具有复杂的融合机制。点绘制是一种直接将 LiDAR 点与视觉信息绑定的简单方法,但是之前的点绘制类方法存在相机和 LiDAR 之间的投影误差问题。为了解决这个问题,我们提出了一种基于深度的点绘制机制,显著提高了多模态融合效果。此外,我们对 LiDAR 进行了更深入的研究,以确定其所需的视觉特征,通过提取视觉信息作为线索,我们在 nuScenes 的 LiDAR 语义分割基准测试中排名第一。我们的实验证明了该方法的鲁棒性和有效性。代码将很快公开。
Mar, 2024
本文提出了一种名为 SPNet 的新型语义传递框架,它使用丰富的上下文绘制来提高现有基于 lidar 的 3D 检测模型的性能,通过知识传递模块在不同的粒度上指导纯 lidar 网络学习经过语义渲染的表示,可以与大多数现有的 3D 检测框架无缝协作,在 KITTI 测试基准上甚至实现了新的 3D 检测性能最佳水平。
Jul, 2022
通过使用卷积神经网络和激光雷达数据,本研究旨在提高图像分割的效率,特别是在自动驾驶系统中的道路表面分割任务中,通过减少标注工作量并在不降低分割质量的情况下训练图像分割模型。
Nov, 2023
本文旨在研究基于传感器融合技术的三维语义分割,将 RGB 图像转化为 LiDAR 所使用的极坐标网格映射表示,并设计了早期和中期融合架构,同时提出了融合两种算法的混合融合结构。在 KITTI 数据集中评估了所提出算法的效果,并相对于仅使用 LiDAR 的基线模型,在两种最先进的算法 SqueezeSeg 和 PointSeg 上分别提高了 10% 的分割精度。
Jun, 2019
使用 PointFusion 实现基于图像和点云信息的 3D 对象检测方法,其中 CNN 和 PointNet 网络分别处理图像和点云数据,再由新型融合网络将二者输出结合起来预测多个 3D 框及其置信度,相比现有方法在 KITTI 和 SUN-RGBD 数据集上实现更好的检测结果且无需特定模型调整。
Nov, 2017
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
无人驾驶车辆中的目标检测与跟踪任务主要依靠相机和 LiDAR 等多种传感器,本研究在使用 LiDAR 点云的新编码方式基础上,通过推断自动驾驶车辆附近不同类别物体的位置,实现了对场景中物体位置和方向的预测。
Dec, 2023
该研究提出了一种名为 LATTE 的 LiDAR 点云注释工具,它采用深度学习和传感器融合的方法,使其具有自动标记、一键注释和跟踪等创新特性,可以加快注释速度,提高标签质量。
Apr, 2019
本文介绍了一种通过将 lidar 特征与摄像头特征融合的方法来提高自动驾驶 3D 检测性能。基于 InverseAug 和 LearnableAlign,提出了一系列被称为 DeepFusion 的通用多模态 3D 检测模型,实现了对 PointPillars、CenterPoint 和 3D-MAN 基线的有效改进,表现出对输入异常和数据偏移的强大鲁棒性和最先进的性能,可公开获取代码
Mar, 2022