PolarNet:在线激光雷达点云语义分割的改进网格表示
提出了一种名为 Panoptic-PolarNet 的快速而强健的 LiDAR 点云全景分割框架,使用极坐标鸟瞰图表示进行语义分割和类无关实例聚类,以解决城市街景中实例的遮挡问题,实验结果表明 Panoptic-PolarNet 在 benchmark 数据集上表现优异。
Mar, 2021
本文提出了一种融合了激光雷达和相机信息的语义栅格生成架构,即 LiDAR-Aided Perspective Transform Network(LAPTNet),通过使用 LiDAR 点云的 3D 信息,LAPTNet 能够将相机平面中的特征与鸟瞰图中的特征相匹配,而无需预测场景深度信息,相较于最先进的仅使用相机的方法,在 NuScenes 数据集验证集中,LAPTNet 对于所提出的类别比竞争方法的改进高达 8.8 个点(或 38.13%)。
Nov, 2022
本研究提出了一种多尺度 LiDAR 辅助透视变换神经网络,利用点云信息将图像特征投影到俯视图中,从而在大幅度提升语义网格生成方面取得了实质性的进展,实现了 25FPS 的实时性能。
Feb, 2023
本文旨在研究基于传感器融合技术的三维语义分割,将 RGB 图像转化为 LiDAR 所使用的极坐标网格映射表示,并设计了早期和中期融合架构,同时提出了融合两种算法的混合融合结构。在 KITTI 数据集中评估了所提出算法的效果,并相对于仅使用 LiDAR 的基线模型,在两种最先进的算法 SqueezeSeg 和 PointSeg 上分别提高了 10% 的分割精度。
Jun, 2019
本文提出了一种快速高效的基于 LiDAR 的 Panoptic-PHNet 框架,其引入簇伪热图作为新的范例,提出了 knn-transformer 模块来精确回归前景点之间的相互作用,并将细粒度体素特征与不同感受野的 2D 俯瞰视图(BEV)特征融合,通过在 SemanticKITTI 数据集和 nuScenes 数据集上的大量实验证明 Panoptic-PHNet 超过了最先进方法,在真实时间内实现了极高的性能。
May, 2022
本文介绍了一种基于 2D 高程图的地形估计和点云地面分割系统 GroundGrid,并利用 SemanticKITTI 数据集和航空 LiDAR 扫描进行了性能评估,结果显示 GroundGrid 在维持高运行速度的同时,优于其他现有系统,平均 IoU 为 94.78%。
May, 2024
本文提出了一种基于球形图像的实时端到端语义分割方法 PointSeg,它以从 3D LiDAR 点云转换来的球形图像为输入,并利用卷积神经网络(CNNs)来预测点级语义映射,它采用了轻量级网络 SqueezeNet 进行模型构建,并在 KITTI 3D 目标检测数据集上进行了训练,实验结果表明在单个 GPU 1080ti 上可达到每秒 90 帧的竞争精度,适用于自动驾驶应用。
Jul, 2018
通过使用 3D 点云来进行语言引导的操纵任务,我们提出了一种名为 PolarNet 的策略,该策略通过精心设计的点云输入、高效的点云编码器和多模态变换器来学习 3D 点云表示并将其与语言指令集成以进行行动预测。在 RLBench 基准测试中,PolarNet 在各种实验中显示出了高效和数据高效性,并在单任务和多任务学习中优于最先进的 2D 和 3D 方法。它在实际机器人上也取得了令人期待的结果。
Sep, 2023
本研究采用最新的图像和点云分割技术,在卷积神经网络体系结构和 point-wise 组件中应用 KPConv,从而在对 LiDAR 扫描进行分割的任务中实现更好的准确性。已经在 SemanticKITTI 基准测试中超过了当前最佳方法,达到了 63.1 的 mIoU。
Jul, 2020
该论文提出了一种新的框架,使用圆柱形分区和不对称 3D 卷积网络来探索 3D 几何模式,并引入点智能精炼模块以减轻损失体素标签编码的干扰;测试表明,该方法在 SemanticKITTI 和 nuScenes 数据集上超过现有方法,排名第一并且较现有方法提高了约 4%。
Nov, 2020