实时激光雷达和雷达高层融合用于障碍物检测和跟踪,同时对地面真值进行评估
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
雷达和激光雷达传感器数据融合能够充分利用它们的互补优势,并为自动驾驶系统提供更准确的周围环境重建。本文介绍了一种基于最先进的目标检测模型 MVDNet 的技术,可以以由更快速的激光雷达限定的工作频率来融合全景雷达和激光雷达,从而满足自动驾驶系统对高响应性的要求,并通过增强训练过程来探索 MVDNet 中的时间冗余,以实现高输出频率且准确度损失较小。
Sep, 2023
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022
本文提出的 LiRaNet 是一种新颖的端到端轨迹预测方法,利用了雷达传感器信息和广泛使用的激光雷达和高清晰度地图,通过高效的时空雷达特征提取方案,实现了多个大规模数据集上最先进的性能表现,并获得了高加速度物体预测误差的 52%降低和远距离物体预测误差的 16%降低。
Oct, 2020
本文提出了一种利用 Radar 和 LiDAR 传感器进行感知的方案,包括基于体素的早期融合和基于注意力的后期融合,可在目标检测和速度估计任务中实现最先进的结果,并进一步显示利用 Radar 可以提高远程目标探测和动态目标运动理解的感知能力。
Jul, 2020
本文探讨了在自动驾驶系统中,如何使用不同的传感器进行环境检测,并比较了使用不同传感器的准确性表现,结果表明虽然传感器融合可以获得更准确的检测结果,但仅使用激光雷达可以在减少通道负担的同时实现类似的结果。
Apr, 2021
提出 LiRaFusion 以解决基于 LiDAR 和雷达的三维目标检测的问题,并通过早期融合模块和中期融合模块来改善特征提取能力,最终在 nuScenes 上取得了显著改进。
Feb, 2024
提出了一种基于早期融合方法和跨通道自适应交叉注意力机制的摄像头与雷达融合的方法,可实现更有效的三维目标检测,并在 nuScenes 测试集中达到了 41.1%的 mAP 和 52.3%的 NDS,相比摄像头基线提高了 8.7 和 10.8 个百分点。
Sep, 2022
介绍了一种双向 LiDAR-Radar 融合框架,Bi-LRFusion,通过学习 LiDAR 分支的重要细节增强 Radar 的本地特征,从而解决 Radar 数据的稀疏性和缺乏高度信息的问题,并在 nuScenes 和 ORR 数据集上进行了广泛实验,显示出优于现有技术的表现,最终通过统一的俯视图表示将 LiDAR 特征与增强的 Radar 特征相结合用于动态目标的 3D 检测。
Jun, 2023