4D 全景式激光雷达分割
通过整合 LiDAR 和图像数据,4D-Former 方法在 4D 全景分割任务上取得了最先进的结果,能够为 LiDAR 序列中的每个点分配语义类别标签和进行对象分割,并能在时间上保持一致的对象分割遮罩。
Nov, 2023
本文扩展了 SemanticKITTI 数据集,提供了激光雷达数据的语义标注和时间上连续的实例信息,以及两个结合了最新的 LiDAR 语义分割方法和目标检测器的强基线,希望能为 LiDAR 的全景分割算法的开发提供帮助。
Mar, 2020
4D LiDAR 语义分割(也称为多扫描语义分割)是增强自动驾驶车辆环境理解能力的关键。本文介绍了 SegNet4D,一种利用基于投影的方法进行快速动态特征编码的实时多扫描语义分割方法,展示了卓越的性能。SegNet4D 将 4D 语义分割视为两个不同的任务:单扫描语义分割和运动目标分割,分别由专用头部解决,然后在提出的运动 - 语义融合模块中进行融合以实现全面的多扫描语义分割。此外,我们提出从当前扫描中提取实例信息,并将其并入网络以实现实例感知分割。我们的方法在多个数据集上表现出卓越的性能,是一种实时多扫描语义分割方法。SegNet4D 的实现将在 https://github.com/nubot-nudt/SegNet4D 上提供。
Jun, 2024
本文提出了一种混合方法,结合现有语义分割网络和传统的 LiDAR 点云聚类算法,通过在 SemanticKITTI 数据集的全景分割排行榜上表现出最领先的性能,证明基于几何的传统聚类算法值得考虑,我们是第一个尝试使用聚类算法进行点云全景分割的研究者,记录了四种具有代表性和实时运行速度的聚类方法的综合技术调查,并将它们实现为 Python 函数发布,以便其他研究人员使用。
Aug, 2021
提出了一种名为 Panoptic-PolarNet 的快速而强健的 LiDAR 点云全景分割框架,使用极坐标鸟瞰图表示进行语义分割和类无关实例聚类,以解决城市街景中实例的遮挡问题,实验结果表明 Panoptic-PolarNet 在 benchmark 数据集上表现优异。
Mar, 2021
本文提出了一种名为 Panoster 的新型无需分类器的全景分割方法,通过学习聚类解决方案来生成类不可知分割,不仅快速而且能够在 SemanticKITTI 基准测试中超过现有方法,并展示了如何在现有的语义架构中灵活地有效地应用我们的方法来提供全景预测。
Oct, 2020
本文研究在自动驾驶应用中对动态场景中的 3D LiDAR 数据进行语义分割。通过使用 3D LiDAR 数据,构建了一个包括范围图像分割、样本生成、数据关联、跟踪级别注释和半监督学习等方面的语义分割系统,使用半监督学习并结合约束数据和少量标注数据对 CNN 分类器进行训练,设计了一种特殊的损失函数,其中鼓励将约束数据分配到同一语义类别。实验表明,少量标注和大量约束数据的组合显著提高了该方法的有效性和场景适应性,效果比以往的方法提高了 10% 以上。
Sep, 2018
本文提出了一个简单而有效的基于检测的网络,用于激光雷达全景分割和追踪任务,通过使用点级别注释训练目标实例检测分支,以及使用轨迹级别监督回归模态中心和物体范围来获取细粒度实例段,该方法在多个 3D/4D LPS 基准测试中表现出色,超过最新的基于查询的模型,建立了新的开源模型的最新技术水平。
Oct, 2023