从三维点云中估计自我运动和动态运动分离,以积累数据并改善三维物体检测
本文提出了一种新的实时方法,基于三维点云序列,采用时间上下文聚合实现动态检测和运动参数估计,可适用于自动驾驶车辆在复杂城市环境下进行安全导航,不仅可以估计车辆或行人等常见道路参与者的运动,还可推广到其他没有在训练数据中出现的物体类别,并对不同的时间上下文聚合策略进行了深入的分析,提供了我们最先进模型与 KITTI 场景流数据集上现有解决方案的比较结果。
Apr, 2020
移动自主性依赖于对动态环境的精确感知。因此,鲁棒地跟踪三维世界中的移动物体对于轨迹预测、避障和路径规划等应用至关重要。尽管大多数当前方法利用激光雷达或摄像头进行多目标跟踪 (MOT),但四维成像雷达的能力仍然很少被探索。针对四维雷达数据中的雷达噪声和点稀疏性带来的挑战,我们介绍了一种针对基于雷达的跟踪的创新解决方案 RaTrack。我们的方法摒弃了对特定物体类型和三维边界框的依赖,而是专注于运动分割和聚类,并且通过运动估计模块进一步丰富。在 View-of-Delft 数据集上进行评估,RaTrack 展示了对移动物体的优越跟踪精度,明显超过了最新研究的性能。
Sep, 2023
本研究讨论了一种实时的用于自动驾驶场景的动态物体检测算法,该算法利用了先前建立的 Lidar 点云的静态背景模型,并将动态物体检测视为背景减法问题。研究者提出了拒绝级联结构用于对道路区域和其他 3D 区域分别进行减法操作,该算法基于 CARLA 模拟器进行了初步实现和准确度评估。
Sep, 2018
使用基于学习的目标检测器和经典的跟踪算法相结合的方法,对成像雷达数据上的多目标跟踪方法进行了比较和分析,研究其在后续任务中的潜力,并考虑了概率关联算法的改进。
Jun, 2024
我们研究了一种新的多头神经网络架构,同时解决了雷达点云中的杂波检测和移动道路用户的语义分割问题,并通过只使用一个输出值来表示网络的预测结果,从而达到了与传统特定任务模型相同的推断时间,我们在 RadarScenes 数据集上的广泛评估中证明了我们的设置非常有效,并且在雷达场景的语义分割上优于现有的任何网络。
Nov, 2023
雷达和相机融合在感知任务中具有鲁棒性,通过充分利用两种传感器的优势。本文介绍了一种基于学习的方法来推断与三维物体相关的雷达点的高度,通过引入新的鲁棒回归损失来解决稀疏目标的挑战,并采用多任务训练策略强调重要特征。与最先进的高度扩展方法相比,雷达的平均绝对高度误差从 1.69 米降低到 0.25 米。估计的目标高度值用于预处理和丰富雷达数据,以用于后续的感知任务。集成这些精细的雷达信息进一步提升了现有雷达相机融合模型在物体检测和深度估计任务中的性能。
Apr, 2024
提出了一种名为 EchoFusion 的新方法,通过跳过现有雷达信号处理管道并将雷达原始数据与其他传感器结合,利用雷达回波的丰富和无损距离和速度线索以及图像的丰富语义线索,在 RADIal 数据集上超越现有方法并接近激光雷达性能。
Jul, 2023