RadarNet:利用雷达实现动态物体的鲁棒感知
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
本文研究了利用汽车雷达传感器进行自动驾驶中的目标识别问题,在考虑到雷达传感器在所有天气条件下的高成本效益和鲁棒性的基础上,探索利用自我中心鸟瞰雷达图像帧的时间信息进行雷达目标识别。通过提出一个时空关系层,显式地对随后雷达图像内的物体之间的关系进行建模,展示了在目标检测和多目标跟踪方面,与几种基线方法相比,我们方法的优越性。
Apr, 2022
雷达和激光雷达传感器数据融合能够充分利用它们的互补优势,并为自动驾驶系统提供更准确的周围环境重建。本文介绍了一种基于最先进的目标检测模型 MVDNet 的技术,可以以由更快速的激光雷达限定的工作频率来融合全景雷达和激光雷达,从而满足自动驾驶系统对高响应性的要求,并通过增强训练过程来探索 MVDNet 中的时间冗余,以实现高输出频率且准确度损失较小。
Sep, 2023
本文提出一种混合逐点雷达 - 光学融合方法,结合了来自范围 - 多普勒频谱和光学图像的密集上下文信息,用于自动驾驶场景中的目标检测,表现优于最近的 FFT-RadNet 方法。
Jul, 2023
该论文提出一种基于鸟瞰视角融合学习的无锚定框物体检测系统,融合雷达和光学雷达的特征来估计可能的目标,并采用新颖交互式变形模块来进一步提高性能。在最近发布的牛津雷达机器人车数据集上进行测试,该系统在 0.8 IoU 下的性能显着优于最佳现有技术方法,可在清晰和雾天下分别提高 14.4%和 20.5%的平均精度。
Nov, 2022
本论文评述了无人驾驶中基于深度学习的感知技术的发展,介绍了传感器融合技术在提升高精度和鲁棒性感知能力中的关键地位,重点介绍了雷达和相机传感器融合在物体检测和语义分割问题中,探索了该领域中的各种挑战和潜在的研究方向以及数据集和融合方法的互动网站。
Apr, 2023
本文提出了一种名为 RODNet 的深度雷达物体检测网络,通过摄像机和雷达融合算法进行交叉监督,可以在实时的条件下有效地检测无线电频率 (RF) 图像中的物体。经过广泛的实验,我们的算法在各种驾驶条件下呈现了鲁棒性,并取得了 86%的平均精度和 88%的平均召回率。
Feb, 2021
该研究综述雷达在自主驾驶车辆中的应用及挑战,提出了针对雷达数据的深度学习研究的关键主题,包括早期和晚期融合,占用流估计,不确定性建模和多径检测等,以及相关的雷达数据集、目前最先进的激光雷达和视觉模型等。
Jun, 2023
传感器融合在自主车辆的准确和健壮的感知系统中至关重要。大多数现有的数据集和感知解决方案都专注于相机和激光雷达的融合,然而相机和雷达之间的协作被显著地低估。本论文介绍了 CRUW3D 数据集,包括 66K 个在不同行驶情景中同步并进行了校准的相机、雷达和激光雷达帧。与其他大规模自动驾驶数据集不同,我们的雷达数据以射频(RF)张量的格式呈现,包含了 3D 位置信息和时空语义信息。这种雷达格式可以使机器学习模型在相机和雷达之间交互和融合信息或特征后生成更可靠的物体感知结果。
Nov, 2023