传感器融合在未来车联网物体检测中的作用
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
讨论了激光雷达与传感器融合技术在自动驾驶车辆对象检测和定位方面的显著改进,并通过对最新研究方法的实验分析提出了未来的研究方向。
Feb, 2022
本论文评述了无人驾驶中基于深度学习的感知技术的发展,介绍了传感器融合技术在提升高精度和鲁棒性感知能力中的关键地位,重点介绍了雷达和相机传感器融合在物体检测和语义分割问题中,探索了该领域中的各种挑战和潜在的研究方向以及数据集和融合方法的互动网站。
Apr, 2023
本文提出了两种单模态传感器的合作式三维物体检测方案,分别为早期融合方案和后期融合方案,并通过在 T 形路口和环岛等复杂驾驶情境中创建的协作数据集对两种方案及其混合策略进行了性能评估。评估结果表明,早期融合方案在检测精度上表现优异,能识别 95% 以上的物体,而后期融合方案在传输开销上表现更加经济实用。文章同时研究了传感器数量及配置如何影响系统性能。
Dec, 2019
本文提出一种新的协同三维物体检测框架,通过利用空间分布式传感器所提供的信息来辅助自动驾驶系统中的感知精度,同时避免因事先的通信方案导致通信拥堵和 / 或性能受限的问题。通过两个复杂的驾驶场景的实验结果和带宽使用分析,证明了该方法可以在各种检测困难情况下节省通信和计算成本,并显著提高检测性能。
May, 2022
本篇论文提出了一种基于变形金刚网络的 3D 物体检测模型 REDFormer,该模型通过使用鸟瞰相机和雷达融合,解决低能见度条件下自动驾驶系统的感知问题,并且在多雷达点云数据、多种天气和时间数据的 nuScenes 数据集上进行验证,相比其他最先进模型,该模型在低能见度情况下表现出更高的检测精度。
May, 2023
本文提出了一种新颖的基于特征融合的多传感器融合技术,结合仿真学习实现端到端自动驾驶导航。论文的重点在于 Lidar 和 RGB 信息的融合技术,同时提出基于惩罚的仿真学习方法,以加强模型对交通规则的遵守,并统一仿真学习和自动驾驶指标的目标。
Mar, 2023
本研究针对自动驾驶的核心传感器进行研究,发现同时融合相机和 LiDAR 两种模式可以显著提升其性能。然而,由于当前数据集来自于昂贵的数据收集车辆,无法完全反映真实数据分布。 因此,我们提出了一种系统性的鲁棒性基准测试工具包,并在 nuScenes 和 Waymo 中建立了鲁棒性基准测试,针对当前的融合方法进行综合性分析。最后,我们提出了一种高效的鲁棒性训练策略。
May, 2022
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022