2DDATA:点云语义分割的二维检测注释可传输聚合
提出了一种可转移的半监督 3D 目标检测模型,通过训练存在强类别和弱类别两个不相交的物体类别集的数据,使用放松重投影损失、Box-to-Point Cloud Fit 网络等技术,从强类别向弱类别传递 3D 信息,并在 SUN-RGBD 和 KITTI 数据集上取得了优异的成果。
Apr, 2019
MS$^{2}$3D 是一个两阶段的三维检测框架,利用小尺寸的体素提取细粒度的局部特征和大尺寸的体素捕捉长程局部特征,通过多尺度语义特征点构建三维特征层并计算特征点与目标质心的偏移,以提高特征聚合的效率,在 KITTI 数据集和 ONCE 数据集上验证了该方法的有效性。
Aug, 2023
本文提出了一个灵活的框架 DetMatch,用于 2D 和 3D 模态的联合半监督学习,通过识别两个传感器检测到的对象,生成更干净、更健壮的伪标签,进一步利用 RGB 图像的更丰富的语义来矫正不正确的 3D 类别预测。该方法在 KITTI 和 Waymo 数据集上取得了比强大的半监督学习方法更好的效果。
Mar, 2022
在自动驾驶中,相较于 2D 检测,3D 检测能够提供更精确的信息用于路径规划和运动估计。然而,由于缺乏几何信息,单一和多视角图像以及来自相机的深度图在检测精度上相对较低。本文提出了 SeSame:一种基于点的语义特征的新表达方法,以确保基于 LiDAR 的 3D 检测具有充足的语义信息。实验证明,我们的方法在 KITTI 物体检测基准测试中在不同难度级别和车辆上优于以前的最先进方法。
Mar, 2024
本文探讨了利用深度学习在 3D 物体检测中,针对使用 RGB-D 数据在室内和室外场景下进行点云识别所面临的挑战以及如何提高效率。通过利用成熟的 2D 物体检测器和先进的 3D 深度学习来提高区域建议与对象本地化的精度,以取得高回收甚至小目标检测的良好性能。在 KITTI 和 SUN RGB-D 3D 检测基准上进行了评估,相比现有技术取得了显著的大幅度升级,并具有实时性能。
Nov, 2017
本文提出了一种名为 Label Diffusion Lidar Segmentation 的基于 Mask-RCNN 和半监督学习的方法,该方法可以在没有 3D 目标的训练数据或微调 2D 图像分割模型的情况下,有效地实现三维点云分割,并在 KITTI 基准数据集和移动机器人上的实验结果表明,其性能超过了现有的三维点云分割技术的水平。
Oct, 2019
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
本文描述了一种名为 BiProDet 的双向特征传播框架,使用点到像素的信息流和像素到点的信息流等机制优化了 3D 目标检测。同时,提出一种新的 2D 辅助任务,用于训练 2D 分支并间接提高 3D 检测的性能。实验证明,该方法在 KITTI 数据集的自行车类上的排名为第一位。
Jan, 2023
本文介绍了一种基于数据增强的方法,通过多次利用已有数据,使用现实世界中的数据模拟给点云数据进行物体检测和语义分割训练。此方法在 KITTI 物体检测和 SemanticKITTI 语义分割挑战赛中取得了显著的性能提升。
Jun, 2022
本文提出了一种端到端可训练的多视角聚合模型,利用 3D 点的视角优势,从任意位置拍摄的图像中合并特征,将标准 2D 和 3D 网络相结合,不需要着色、上网格或真实深度图,我们在 S3DIS 和 KITTI-360 数据集上取得了新的最佳效果。
Apr, 2022