所见即所得:利用可视性进行 3D 物体检测
通过无缝融合 RGB 传感器到 Lidar 的 3D 识别中,我们提出了一个简单而有效的多模态检测器,该方法利用一组 2D 检测生成密集的虚拟 3D 点,能够增强原来稀疏的 3D 点云,实验结果在大规模 nuScenes 数据集上取得了显着的改进,并超过了竞争融合方法。
Nov, 2021
提出了一种结合单目和基于点云的三维检测的平衡方法,使用低成本、低分辨率的传感器获取仅有 512 个点,然后将这有限的三维信息与单张图像结合重建完整的三维点云,通过与多模态现成的三维检测器结合使用,使得三维检测的准确率相比于最新的单目检测方法提高了 20%,相对于基准多模态方法在 KITTI 和 JackRabbot 数据集上提高了 6% 到 9%。
Apr, 2024
该论文提出了一种解决方案,通过实现快速动态体素化器,以便在快速基于柱体模型中像体素化器在缓慢的基于体素模型中工作一样工作,实现网络推理速度和精度的提高。此外,作者还提出了轻型检测子头模型来分类预测的物体,并过滤出虚假的检测物体,从而显著提高模型的精度,在可忽略的时间和计算成本内。
Jan, 2023
通过跨模态幻觉实现稳健的点云三维物体检测的新框架,结合空间和特征的多次对齐以实现骨干网络的细化和幻觉生成,提出了空间对齐和特征对齐的步骤以处理几何差异和感知模态间的属性差距,通过单模态数据进行推断阶段的输入,实现更好的困难检测和高效率的检测。在 View-of-Delft (VoD) 数据集上的广泛实验表明,该方法在雷达和 LiDAR 物体检测上优于最先进的方法,同时保持了竞争性的运行效率。
Sep, 2023
提出了一种从无结构点云中重建网格的新框架,通过利用虚拟视图中三维点的可见性和基于传统图割的网格生成。与其他基于学习的方法相比,该方法只在二维二分类任务上进行学习,更加普适和实用。实验表明,在小型复杂物体上,该方法具有良好的可传递性和鲁棒性,并与最先进的学习方法相比具有竞争优势,并且在大型室内和室外场景中表现出色。
Aug, 2021
本文提出了一种新的方法,将点云数据视为中空三维数据,并针对目标检测问题提出了基于 H-23D R-CNN 架构的点云数据检测算法,该算法利用多视角特征和新颖的双向引导多视角融合模块进行中空三维点云检测,实验结果表明该算法在 KITTI 数据集和 Waymo Open 数据集上的检测效果都优于当前最优算法。
Jul, 2021
介绍了一种联合训练 3D 目标检测和单目稠密深度重建神经网络的方法,通过 LiDAR 点云和单个 RGB 图像生成物体姿态预测和密集重建深度,其中 LiDAR 点云被转换为一组体素并使用 3D 卷积层提取特征,通过另一个 2D 卷积神经网络提取相应的 RGB 图像特征,并使用这些组合特征来预测密集深度图。
Apr, 2021
该研究提出了一种基于 3D 体素特征的中心点检测方法,其中包括一个有效的粗细重建模块,可从单个 2D 图像中检测和重建多个物体的 3D 位置和形状。
Nov, 2021
UAV 任务常需要满足地面位置与飞行器位置之间的特定几何约束。本文描述了一种能够快速计算包围所有三维坐标的三维体积的系统的理论与实现;并将其称为可见性体积。该方法通过使用 GPU 加速的深度图计算和几何布尔运算来计算可见性体积。这种算法提供了感知和导航敏感性的解决方案,产生了一个满足任务路径和感知需求的三维坐标体积。
Feb, 2024