基于 KITTI 数据集的基于激光雷达的全景分割基准
本文提出了一个基于汽车激光雷达的大型数据集,用于推动基于激光的语义分割研究。作者提出了三项基于该数据集的基准任务,包括使用单个扫描和使用多个过去扫描的语义分割,以及需要预测未来语义场景的语义场景预测。作者提供了基线实验,并表明需要更复杂的模型才能有效处理这些任务。该数据集不仅为更先进的方法的开发打开了大门,而且还提供了丰富的数据来调查新的研究方向。
Apr, 2019
提出一种新的 4D 全景 LiDAR 分割方法,将语义类和时间一致的实例 ID 分配给 3D 点序列,使用点为中心的评估度量来确定每个点的语义类别,将对象实例建模为 4D 时空域中的概率分布,从而以更高效的方式处理多个点云。这项工作展望未来的超高效 LiDAR 全景感知。
Feb, 2021
介绍了扩展了 nuScenes 数据集的大规模全景 nuScenes 基准数据集,以便对动态城市环境的全景场景理解方法进行研究和评估,同时提出了各种分割和跟踪任务的强基线方法,并提出了面向实例的新型 PAT 指标,解决了现有指标的局限性。
Sep, 2021
本文提出了一种名为 Panoster 的新型无需分类器的全景分割方法,通过学习聚类解决方案来生成类不可知分割,不仅快速而且能够在 SemanticKITTI 基准测试中超过现有方法,并展示了如何在现有的语义架构中灵活地有效地应用我们的方法来提供全景预测。
Oct, 2020
本文提出了一种快速高效的基于 LiDAR 的 Panoptic-PHNet 框架,其引入簇伪热图作为新的范例,提出了 knn-transformer 模块来精确回归前景点之间的相互作用,并将细粒度体素特征与不同感受野的 2D 俯瞰视图(BEV)特征融合,通过在 SemanticKITTI 数据集和 nuScenes 数据集上的大量实验证明 Panoptic-PHNet 超过了最先进方法,在真实时间内实现了极高的性能。
May, 2022
提出了一种名为 Panoptic-PolarNet 的快速而强健的 LiDAR 点云全景分割框架,使用极坐标鸟瞰图表示进行语义分割和类无关实例聚类,以解决城市街景中实例的遮挡问题,实验结果表明 Panoptic-PolarNet 在 benchmark 数据集上表现优异。
Mar, 2021
本文提出了一种混合方法,结合现有语义分割网络和传统的 LiDAR 点云聚类算法,通过在 SemanticKITTI 数据集的全景分割排行榜上表现出最领先的性能,证明基于几何的传统聚类算法值得考虑,我们是第一个尝试使用聚类算法进行点云全景分割的研究者,记录了四种具有代表性和实时运行速度的聚类方法的综合技术调查,并将它们实现为 Python 函数发布,以便其他研究人员使用。
Aug, 2021
本文提出了一个简单而有效的基于检测的网络,用于激光雷达全景分割和追踪任务,通过使用点级别注释训练目标实例检测分支,以及使用轨迹级别监督回归模态中心和物体范围来获取细粒度实例段,该方法在多个 3D/4D LPS 基准测试中表现出色,超过最新的基于查询的模型,建立了新的开源模型的最新技术水平。
Oct, 2023
本文提出了一种基于双向学习流程和插拔式遮挡处理算法的深度全景分割方案,用于同时执行前景实例的实例分割和背景物品的语义分割,并能有效地处理不同物体实例之间的遮挡问题。在 COCO 全景基准测试中,实验结果验证了我们所提出的方法的有效性。
Mar, 2020