用于汽车场景解析的雷达光谱 - 语言模型
我们提出了一种新的方法,通过一种新的架构和损失函数对雷达场景进行语义分割,从而克服了雷达数据的固有噪声、稀疏性以及前景和背景的不平衡。我们的方法 TransRadar 在 CARRADA 和 RADIal 数据集上优于现有方法,并且模型尺寸更小。
Oct, 2023
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021
本研究提供一份新的汽车雷达数据集,用于支持以机器学习为基础的雷达感知算法的研发,特别关注移动道路用户的检测和分类,数据集由四个系列雷达传感器提供数据,持续记录超过四个小时的驾驶过程,同时提供详细的测量和标注信息,以便确保算法的公共性能评估。
Apr, 2021
传感器融合在自主车辆的准确和健壮的感知系统中至关重要。大多数现有的数据集和感知解决方案都专注于相机和激光雷达的融合,然而相机和雷达之间的协作被显著地低估。本论文介绍了 CRUW3D 数据集,包括 66K 个在不同行驶情景中同步并进行了校准的相机、雷达和激光雷达帧。与其他大规模自动驾驶数据集不同,我们的雷达数据以射频(RF)张量的格式呈现,包含了 3D 位置信息和时空语义信息。这种雷达格式可以使机器学习模型在相机和雷达之间交互和融合信息或特征后生成更可靠的物体感知结果。
Nov, 2023
本研究提出使用深度分割模型和雷达识别停车场中的空余位置。并通过对 SCORP 数据集的评估,证明该方法在雷达输入表示方面表现良好,具有低内存使用和实时处理速度,适合嵌入式部署。
Mar, 2020
本篇论文提出了一种基于变形金刚网络的 3D 物体检测模型 REDFormer,该模型通过使用鸟瞰相机和雷达融合,解决低能见度条件下自动驾驶系统的感知问题,并且在多雷达点云数据、多种天气和时间数据的 nuScenes 数据集上进行验证,相比其他最先进模型,该模型在低能见度情况下表现出更高的检测精度。
May, 2023
我们研究了一种新的多头神经网络架构,同时解决了雷达点云中的杂波检测和移动道路用户的语义分割问题,并通过只使用一个输出值来表示网络的预测结果,从而达到了与传统特定任务模型相同的推断时间,我们在 RadarScenes 数据集上的广泛评估中证明了我们的设置非常有效,并且在雷达场景的语义分割上优于现有的任何网络。
Nov, 2023
该综述研究了自动驾驶系统中使用的雷达数据表示,介绍了雷达传感器的能力和局限性,探讨了 ADC 信号、雷达张量、点云、网格地图和微多普勒特征等五种雷达数据表示方法,并分析了相关数据集、方法、优势和局限性,提出了潜在的研究方向和挑战,为雷达感知研究者提供了深入洞察,并通过交互网站方便不同数据表示、数据集和方法的检索和比较。
Dec, 2023
本文介绍了一种包含有关不同类型幽灵检测的详细手动注释的数据集,并评估了识别这些对象的两种不同方法。希望我们的数据集能鼓励更多研究者参与到多径对象抑制或开发领域中。
Apr, 2024