基于深度语义的三维 LiDAR 数据分类
本篇论文提出了一种基于 3D LiDAR 扫描的新颖的运动对象分割方法,可以将环境精确地分割为运动和静态对象,相比于其他先进的方法在城市环境中具有更高的分割质量。
May, 2021
提出一种基于学习的方法,通过生成场景的静态部分,来分割可移动和移动物体的 LiDAR 精确检测,该模型表明优于现有基线,无需分割标注即可用于不同场景的 SLAM 导航
Jun, 2023
本文研究在自动驾驶应用中对动态场景中的 3D LiDAR 数据进行语义分割。通过使用 3D LiDAR 数据,构建了一个包括范围图像分割、样本生成、数据关联、跟踪级别注释和半监督学习等方面的语义分割系统,使用半监督学习并结合约束数据和少量标注数据对 CNN 分类器进行训练,设计了一种特殊的损失函数,其中鼓励将约束数据分配到同一语义类别。实验表明,少量标注和大量约束数据的组合显著提高了该方法的有效性和场景适应性,效果比以往的方法提高了 10% 以上。
Sep, 2018
本文提出了一种基于三维激光雷达测距扫描和神经网络对语义信息进行提取的建图及定位方法,实现了对运动物体的有效滤波和语义信息约束下的扫描匹配,与现有基于几何约束的方法相比,实验结果表明其性能更优。
May, 2021
本文提出了一种无模型、独立于设置的方法,可以在线检测 3D 激光雷达数据中的动态物体。我们明确地补偿了当前 3D 旋转激光雷达传感器的移动扫描操作(运动畸变)。我们的检测方法使用一种运动补偿的 freespace 查询算法,并在点级别对动态(当前移动)和静态(当前静止)标签进行分类。我们使用 CARLA 建立了基于运动畸变激光雷达数据的基准进行定量分析,CARLA 是用于自动驾驶研究的开源模拟器。我们还使用 Velodyne HDL-64E 在驾驶场景中提供了实际数据的定性分析。与现有的无模型 3D 激光雷达方法相比,我们的方法独特之处在于其设置独立性和对点云运动畸变的补偿。
Sep, 2018
本文提出了一种基于特征、无模型、可识别动态物体的 SLAM 算法,使用了语义分割技术来估算场景中刚性运动物体的运动轨迹和速度,并能够生成静态和动态结构的地图。该算法在模拟、合成和实际数据集上均实现了良好的性能。
Feb, 2020
提出一种新的 4D 全景 LiDAR 分割方法,将语义类和时间一致的实例 ID 分配给 3D 点序列,使用点为中心的评估度量来确定每个点的语义类别,将对象实例建模为 4D 时空域中的概率分布,从而以更高效的方式处理多个点云。这项工作展望未来的超高效 LiDAR 全景感知。
Feb, 2021
本文提出了一种基于图神经网络的半弱监督方法,用于解决 3D 物体动力学运动预测问题,通过对分层部分级别分割和移动部分参数之间的映射学习,在 PartNet-Mobility 数据集上进行训练,可以得到一批带有假标签的移动性信息的 3D 对象数据,并且可以进一步用于预先存在的分割的弱监督学习。
Mar, 2023
本文提出了一种新的实时方法,基于三维点云序列,采用时间上下文聚合实现动态检测和运动参数估计,可适用于自动驾驶车辆在复杂城市环境下进行安全导航,不仅可以估计车辆或行人等常见道路参与者的运动,还可推广到其他没有在训练数据中出现的物体类别,并对不同的时间上下文聚合策略进行了深入的分析,提供了我们最先进模型与 KITTI 场景流数据集上现有解决方案的比较结果。
Apr, 2020
本文提出了一种用于理解场景中运动车辆动态的新方法,该方法通过设计卷积神经网络 (CNN),并在训练期间引入一系列所谓的 “预文本任务”,以消除自我运动和外部车辆运动的混淆。我们在测试阶段使用 lidar 扫描的连续对来试验该系统,并在训练期间将形象信息开以提高系统推理结果精度。
Aug, 2018