基于激光雷达的动态物体 3D 跟踪和状态估计
本文提出了一种基于立体视觉的方法,用于在动态自动驾驶情景下跟踪摄像机姿态和三维语义对象,该方法使用易于标注的二维检测和离散视点分类结合轻量级语义推理方法获取粗略的三维物体测量,并基于当前的物体感知相机姿态跟踪实现物体位置的估计与 3D 建模以获得精确度和时间一致性。
Jul, 2018
本文提出 DL-SLOT,一种动态激光雷达 (Lidar) SLAM 和动态目标跟踪方法,该方法将车辆和静态 / 动态物体的状态估计融合到统一的优化框架中,同时进行 SLAM 和目标跟踪,以改善高度动态路况下 SLAM 的鲁棒性和准确性以及物体状态估计的准确性。
Feb, 2022
探索在自动驾驶机器学习任务中利用轨迹和动态状态信息进行高效数据筛选的研究,提出了在主动学习框架中的轨迹状态聚类和采样方法,旨在降低注释和数据成本同时保持模型性能。研究通过利用轨迹信息引导数据选择,在训练数据中促进多样性,证明了方法在轨迹预测任务中的有效性,使用 nuScenes 数据集展示了与随机采样相比在不同数据池大小上的一致性性能提升,甚至在仅使用 50% 的数据成本下达到次基线位移误差。结果表明,在解决 “冷启动问题” 方面,最初采样典型数据有助于,而随着训练池大小的增加,引入新颖性变得更有益处。通过整合使用轨迹状态信息的主动学习,证明了利用低成本数据筛选策略可以实现更高效和稳健的自动驾驶系统。
May, 2024
本文提出了一种新的实时方法,基于三维点云序列,采用时间上下文聚合实现动态检测和运动参数估计,可适用于自动驾驶车辆在复杂城市环境下进行安全导航,不仅可以估计车辆或行人等常见道路参与者的运动,还可推广到其他没有在训练数据中出现的物体类别,并对不同的时间上下文聚合策略进行了深入的分析,提供了我们最先进模型与 KITTI 场景流数据集上现有解决方案的比较结果。
Apr, 2020
提出了一种基于单目视觉的 3D 车辆检测和跟踪的在线框架,并利用 3D 车辆坐标信息和深度匹配对数据进行关联,并设计了一个基于 LSTM 的动作学习模块,以进行更准确的长期运动外推。实验结果表明,该跟踪系统可以提供抗干扰性更强的数据关联和跟踪能力,并且在跟踪 30 米内的行驶车辆方面比基于激光雷达的方法表现更好。
Nov, 2018
本研究讨论了一种实时的用于自动驾驶场景的动态物体检测算法,该算法利用了先前建立的 Lidar 点云的静态背景模型,并将动态物体检测视为背景减法问题。研究者提出了拒绝级联结构用于对道路区域和其他 3D 区域分别进行减法操作,该算法基于 CARLA 模拟器进行了初步实现和准确度评估。
Sep, 2018
本文提出了一种新颖的多模态多目标跟踪算法,用于自动驾驶汽车,该算法结合了相机和 LiDAR 数据。通过使用先进的 3D 物体检测器处理相机帧,以及使用经典的聚类技术处理 LiDAR 观察数据。该算法由三个步骤的联合过程、用于估计每个检测到的动态障碍物运动的扩展卡尔曼滤波器,以及轨迹管理阶段组成。与大多数先进的多模态目标跟踪方法不同,该算法不依赖地图或车辆全局姿态的知识。此外,它专门针对相机使用 3D 检测器,并且对使用的 LiDAR 传感器类型不敏感。该算法在仿真环境和实际数据中进行验证,并且结果令人满意。
Mar, 2024
本文提出了一种无模型、独立于设置的方法,可以在线检测 3D 激光雷达数据中的动态物体。我们明确地补偿了当前 3D 旋转激光雷达传感器的移动扫描操作(运动畸变)。我们的检测方法使用一种运动补偿的 freespace 查询算法,并在点级别对动态(当前移动)和静态(当前静止)标签进行分类。我们使用 CARLA 建立了基于运动畸变激光雷达数据的基准进行定量分析,CARLA 是用于自动驾驶研究的开源模拟器。我们还使用 Velodyne HDL-64E 在驾驶场景中提供了实际数据的定性分析。与现有的无模型 3D 激光雷达方法相比,我们的方法独特之处在于其设置独立性和对点云运动畸变的补偿。
Sep, 2018
本文提出了一种基于特征、无模型、可识别动态物体的 SLAM 算法,使用了语义分割技术来估算场景中刚性运动物体的运动轨迹和速度,并能够生成静态和动态结构的地图。该算法在模拟、合成和实际数据集上均实现了良好的性能。
Feb, 2020
本文介绍了一种新颖的方法来同时预测自动驾驶中车辆的位置和规模,这主要是通过使用多流递归神经网络编码器 - 解码器模型来实现,在该模型中,密集的光流加入了捕捉运动和外观变化信息的能力。此外,本文还发现明确建模车辆的未来运动可以提高预测准确性。
Sep, 2018