设计有效的卷积网络进行雷达激光雷达融合目标检测
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
雷达和激光雷达传感器数据融合能够充分利用它们的互补优势,并为自动驾驶系统提供更准确的周围环境重建。本文介绍了一种基于最先进的目标检测模型 MVDNet 的技术,可以以由更快速的激光雷达限定的工作频率来融合全景雷达和激光雷达,从而满足自动驾驶系统对高响应性的要求,并通过增强训练过程来探索 MVDNet 中的时间冗余,以实现高输出频率且准确度损失较小。
Sep, 2023
本文提出一种混合逐点雷达 - 光学融合方法,结合了来自范围 - 多普勒频谱和光学图像的密集上下文信息,用于自动驾驶场景中的目标检测,表现优于最近的 FFT-RadNet 方法。
Jul, 2023
本论文评述了无人驾驶中基于深度学习的感知技术的发展,介绍了传感器融合技术在提升高精度和鲁棒性感知能力中的关键地位,重点介绍了雷达和相机传感器融合在物体检测和语义分割问题中,探索了该领域中的各种挑战和潜在的研究方向以及数据集和融合方法的互动网站。
Apr, 2023
提出了一种基于早期融合方法和跨通道自适应交叉注意力机制的摄像头与雷达融合的方法,可实现更有效的三维目标检测,并在 nuScenes 测试集中达到了 41.1%的 mAP 和 52.3%的 NDS,相比摄像头基线提高了 8.7 和 10.8 个百分点。
Sep, 2022
本文探讨了在自动驾驶系统中,如何使用不同的传感器进行环境检测,并比较了使用不同传感器的准确性表现,结果表明虽然传感器融合可以获得更准确的检测结果,但仅使用激光雷达可以在减少通道负担的同时实现类似的结果。
Apr, 2021
讨论了激光雷达与传感器融合技术在自动驾驶车辆对象检测和定位方面的显著改进,并通过对最新研究方法的实验分析提出了未来的研究方向。
Feb, 2022
本文提出了一种利用 Radar 和 LiDAR 传感器进行感知的方案,包括基于体素的早期融合和基于注意力的后期融合,可在目标检测和速度估计任务中实现最先进的结果,并进一步显示利用 Radar 可以提高远程目标探测和动态目标运动理解的感知能力。
Jul, 2020
本篇论文提出了一种基于变形金刚网络的 3D 物体检测模型 REDFormer,该模型通过使用鸟瞰相机和雷达融合,解决低能见度条件下自动驾驶系统的感知问题,并且在多雷达点云数据、多种天气和时间数据的 nuScenes 数据集上进行验证,相比其他最先进模型,该模型在低能见度情况下表现出更高的检测精度。
May, 2023