基于占据估计的汽车激光雷达自我监督
该研究提出了一种针对自动驾驶数据量身定制的自监督 3D 感知模型预训练方法,使用 superpixels 来池化 3D 点特征和 2D 像素特征,训练 3D 网络来匹配虚拟对应的 2D 像素特征并提取特征,从而实现无需任何点云或图像注释的 3D 语义分割和车辆物体检测,进行了大量的自动驾驶数据集实验以证明其有效性。
Mar, 2022
本研究提出了一种自监督学习方法用于激光雷达帧的语义分割,通过结合 SLAM 和光线追踪算法实现自动化注释,训练预测机器人移动场景中的固定结构和可动目标的深度学习模型,同时改进机器人的导航和本地化性能,为机器人导航和目标定位提供了新的途径。
Dec, 2020
本文利用自监督多帧流表示和单帧三维检测假设之间的关系,将自监督训练策略与监督三维检测结合,提出一种利用场景流估计的自监督训练方法来增强三维检测性能的技术。实验表明,所提出的自监督预训练显著提高了三维检测性能。
May, 2022
自动驾驶堆栈中,3D 物体检测是最重要的组成部分之一,但当前最先进的激光雷达物体检测器需要昂贵而缓慢的人工注释才能取得良好性能。我们引入了一种自我监督方法来训练 SOTA 激光雷达物体检测网络,该方法仅基于未标记的激光点云序列工作,我们称之为轨迹规范化自我训练。我们演示了我们的方法对于多个 SOTA 物体检测网络在多个真实世界数据集上的有效性。
Mar, 2024
我们研究在自动驾驶场景中从 3D 点云中进行无监督对象检测的问题,提出了一种简单而有效的方法,利用点聚类、时间一致性、CNN 的平移等性质以及自我监督来改进无监督检测算法,通过在非相近区域进行自动标记扩展到远距离,从而实现了零 - shot 方式的对象检测,能够在稀疏、远距离区域进行检测,同时在更多迭代自我训练的过程中不断改进。我们提出了基于碰撞距离的新的规划感知度量来更好地衡量模型在自动驾驶场景中的性能。我们在 PandaSet 和 Argoverse 2 Sensor 数据集上展示了我们的无监督对象检测器显著优于无监督基线的性能,证明了自我监督与对象先验相结合可以实现野外对象发现的潜力。
Nov, 2023
提出了一种基于多视角和弱标签的纯 RGB 序列的自监督 3D 物体检测方法,其在 KITTI 3D 数据集上的性能与使用激光雷达或立体图像的最先进的自监督方法相当。
May, 2023
通过使用与图像相关的 shelf-supervision 模型对配对的 RGB 和 LiDAR 数据进行无监督预训练,我们提出了一种能够生成零样本 3D 边界框的点云表示方法,这种方法在半监督检测中能够显著提高检测准确性,尤其适用于 LiDAR-only 和多模态 (RGB + LiDAR) 检测。我们在 nuScenes 和 WOD 上展示了我们方法的有效性,并在有限数据环境中明显改进了之前的工作。
Jun, 2024
本文提出了一种自监督的 LiDAR 测距法 ——SelfVoxeLO,通过使用 3D 卷积网络对点云数据进行特征提取,利用 LiDAR 点云的内在属性设计了多种新颖的损失函数,并引入了一种不确定性感知的机制来减轻运动物体 / 噪声的干扰,该方法在 KITTI 和 Apollo-SouthBay 数据集上的性能超过了现有的无监督方法,并且可以通过添加更多未标记的训练数据来进一步提高性能,可与有监督的方法相媲美。
Oct, 2020
3D LiDAR 激光雷达点云的标注是耗时且耗能的,为了减轻标注的负担,本文提出了 SPOT 方法,该方法通过占据预测进行可扩展的预训练,从而学习可转移的 3D 表征,并在不同数据集和任务的标签效率设置下展示了其有效性。
Sep, 2023