多视角雷达语义分割
我们提出了一种新的方法,通过一种新的架构和损失函数对雷达场景进行语义分割,从而克服了雷达数据的固有噪声、稀疏性以及前景和背景的不平衡。我们的方法 TransRadar 在 CARRADA 和 RADIal 数据集上优于现有方法,并且模型尺寸更小。
Oct, 2023
本研究介绍了 CARRADA 数据集,其中包含相机和雷达信号,以及一种半自动注释方法和一种基于雷达的语义分割基线方法。
May, 2020
我们研究了一种新的多头神经网络架构,同时解决了雷达点云中的杂波检测和移动道路用户的语义分割问题,并通过只使用一个输出值来表示网络的预测结果,从而达到了与传统特定任务模型相同的推断时间,我们在 RadarScenes 数据集上的广泛评估中证明了我们的设置非常有效,并且在雷达场景的语义分割上优于现有的任何网络。
Nov, 2023
在该研究中,我们使用 LIDAR 数据和已标注的离路 LIDAR 数据集来生成 RADAR 标签,并将 RADAR 数据表示为图像,从而应对离路情景下 RADAR 数据的语义分割的固有复杂性。通过实际数据集的验证,我们的实用方法突显了 RADAR 技术在离路环境导航应用中的潜力。
Oct, 2023
通过将原始雷达数据编码为点云并将图像特征转化到鸟瞰空间中,我们引入了一种名为 BEVCar 的新型方法,用于联合 BEV 对象和地图分割,并且在 nuScenes 数据集上的实验表明,BEVCar 在环境条件复杂和远距离物体分割方面的性能优于现有技术。
Mar, 2024
传感器融合在自主车辆的准确和健壮的感知系统中至关重要。大多数现有的数据集和感知解决方案都专注于相机和激光雷达的融合,然而相机和雷达之间的协作被显著地低估。本论文介绍了 CRUW3D 数据集,包括 66K 个在不同行驶情景中同步并进行了校准的相机、雷达和激光雷达帧。与其他大规模自动驾驶数据集不同,我们的雷达数据以射频(RF)张量的格式呈现,包含了 3D 位置信息和时空语义信息。这种雷达格式可以使机器学习模型在相机和雷达之间交互和融合信息或特征后生成更可靠的物体感知结果。
Nov, 2023
本文研究了自动驾驶系统中车辆安全性的提高、深度学习基础的障碍物检测和分割、雷达传感器和摄像头传感器的融合,以及在车辆感知中的数据集、度量、挑战和开放性问题,这些元素对于提高自动驾驶系统的普及率具有重要意义。
Mar, 2023
本论文评述了无人驾驶中基于深度学习的感知技术的发展,介绍了传感器融合技术在提升高精度和鲁棒性感知能力中的关键地位,重点介绍了雷达和相机传感器融合在物体检测和语义分割问题中,探索了该领域中的各种挑战和潜在的研究方向以及数据集和融合方法的互动网站。
Apr, 2023
该研究论文通过数据融合不同传感器的数据,开发了低水平的传感器融合网络来进行 3D 物体检测,并提出了一种新的损失函数来提高检测和方向估计性能。在 nuScenes 数据集上的测试结果表明,与基准 lidar 网络相比,融合雷达数据可以提高约 5.1% 的检测分数,特别适用于暴雨和夜晚场景。而融合额外相机数据只有与雷达融合共同使用时才有积极的贡献,这表明传感器间的相互依赖对检测结果很重要。
Jun, 2021