H3DNet:使用混合几何基元进行3D 目标检测
本文探讨了利用深度学习在 3D 物体检测中,针对使用 RGB-D 数据在室内和室外场景下进行点云识别所面临的挑战以及如何提高效率。通过利用成熟的 2D 物体检测器和先进的 3D 深度学习来提高区域建议与对象本地化的精度,以取得高回收甚至小目标检测的良好性能。在 KITTI 和 SUN RGB-D 3D 检测基准上进行了评估,相比现有技术取得了显著的大幅度升级,并具有实时性能。
Nov, 2017
本文提出了 RBGNet 框架,一种基于投票的 3D 检测器,用于从点云中精确检测 3D 物体。该框架使用基于射线的特征分组模块来聚合物体表面的点特征,以了解物体的形状以增强聚类特征,从而预测 3D 边界框。此外,作者还提出了一种新颖的前景偏置采样策略,以在下采样过程中采样更多物体表面上的点,并显着提高检测性能。
Apr, 2022
本文提出了一种基于深度点集网络和 Hough 投票的端到端三维物体检测网络 VoteNet,通过纯几何信息在两个大型真实三维扫描数据集 ScanNet 和 SUN RGB-D 上实现了最先进的三维检测,且模型设计简单,模型大小小,效率高,并且不依赖于颜色图像。
Apr, 2019
本文提出了一种新的方法,将点云数据视为中空三维数据,并针对目标检测问题提出了基于 H-23D R-CNN 架构的点云数据检测算法,该算法利用多视角特征和新颖的双向引导多视角融合模块进行中空三维点云检测,实验结果表明该算法在 KITTI 数据集和 Waymo Open 数据集上的检测效果都优于当前最优算法。
Jul, 2021
本文提出了一种使用单张图片进行三维目标检测与姿态估计的方法,通过使用深度卷积神经网络来回归相对稳定的三维目标属性,并使用二维边界框提供的几何约束来组合这些估计,从而产生完整的三维边界框。
Dec, 2016
KM3D-Net 提出了一种基于 RGB 图像和关键点的单次检测框架,通过结合完全卷积模型、几何约束和不依赖 CAD 模型、深度生成器,以及一种有效的半监督训练策略,实现了卓越的检测表现,并超过以前所有的最先进方法。
Sep, 2020
VoxelNet 是一种针对点云图像检测的深度网络,可以将点云分割成等间距的三维体素,并通过新引入的体素特征编码层将每组点转换为统一的特征表示,从而生成描述性的体积表示,并连接 RPN 以生成检测。
Nov, 2017
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
提出了一种在点云中基于消息传递和动态图形的 3D 物体检测架构,通过一种针对 3D 检测任务的集合到集合的蒸馏方法来简化知识蒸馏,实现了自动驾驶基准测试的最先进性能。
Oct, 2021