mmFUSION: 三维物体检测的多模态融合
本文提出了一种名为 MMFusion 的多模态 3D 检测框架,以在复杂场景中实现 LiDAR 和图像的准确融合,通过实验证明,该框架不仅优于现有基准,而且尤其适用于在 KITTI 基准上检测骑自行车和行人。
Mar, 2023
DeepFusion 提出了一种模块化的多模态架构,用于融合 lidar,相机和雷达以进行 3D 物体检测,实验结果证明了其灵活性和有效性,并探讨了远距离汽车检测和所需的激光点密度对 3D 物体检测的影响。
Sep, 2022
本文介绍了自动驾驶所使用的流行传感器、它们的数据性质以及相应的目标检测算法。还讨论了用于评估多模态 3D 目标检测算法的现有数据集。接着对基于多模态融合的 3D 检测网络进行了回顾,并介绍了它们的融合阶段、融合输入和融合粒度以及这些设计选择如何随着时间和技术而演变。最后讨论了面临的挑战以及可能的解决方案。希望本文能帮助研究人员了解多模态 3D 目标检测领域并进行相关研究。
Jun, 2021
本论文提出了一种用于自动驾驶场景中多模态三维物体检测的新型融合网络 FBMNet,其通过在边界框级别上学习对应关系以自由化校准依赖,从而提供了一种用于跨模态特征对齐的替代方法。在 nuScenes 数据集上的实验表明,该方法比现有融合方法更加稳定有效,适用于异步传感器、错位传感器放置和退化相机图像等复杂情况,为实现自动驾驶场景中安全而提供了一种可行解决方案。
May, 2023
提出 MMF-Track,一种多模态多级融合跟踪器,利用点云的几何和图像纹理特征跟踪 3D 目标,在 KITTI 上实现了最先进的性能表现,并在 NuScenes 上具有竞争力。
May, 2023
本文提出了一种基于多模态融合的三维车辆检测方法,使用图像信息有效降低了假阳性,具有快速检测速度;通过基于通道注意力机制的多模态自适应特征融合模块,实现了对不同模态特征的自适应调节和融合技术的适应性,实验结果表明该方法能够过滤掉更多的假阳性,并在 KITTI 基准测试中获得了最快速度和更好的性能。
Sep, 2020
本文介绍了一种通过将 lidar 特征与摄像头特征融合的方法来提高自动驾驶 3D 检测性能。基于 InverseAug 和 LearnableAlign,提出了一系列被称为 DeepFusion 的通用多模态 3D 检测模型,实现了对 PointPillars、CenterPoint 和 3D-MAN 基线的有效改进,表现出对输入异常和数据偏移的强大鲁棒性和最先进的性能,可公开获取代码
Mar, 2022
提出了第一个统一的端到端传感器融合框架 ——FUTR3D,使用了基于查询的通用特征采样器(MAFS)和一种集合损失的 Transformer 解码器进行 3D 检测。FUTR3D 在各种传感器组合上都得到了有效验证,并且具有在不同传感器配置下实现低成本自动驾驶的优点。
Mar, 2022
提出了一个称为 “FusionPainting” 的多模态融合框架,它可以在语义级别上融合 2D RGB 图像和 3D 点云以提高 3D 障碍物检测性能,并在 nuScenes 检测基准测试中显示出优于其他现有方法的性能。
Jun, 2021
本文针对自动驾驶感知任务中存在的多模态融合问题进行文献综述,分析超过 50 篇包括 LiDAR 和相机在内的感知传感器解决目标检测和语义分割任务的方法,并提出一种更合理的分类方法。
Feb, 2022