PerspectiveNet:通过视点获取的单个 RGB 图像的 3D 对象检测
本文探讨了利用深度学习在 3D 物体检测中,针对使用 RGB-D 数据在室内和室外场景下进行点云识别所面临的挑战以及如何提高效率。通过利用成熟的 2D 物体检测器和先进的 3D 深度学习来提高区域建议与对象本地化的精度,以取得高回收甚至小目标检测的良好性能。在 KITTI 和 SUN RGB-D 3D 检测基准上进行了评估,相比现有技术取得了显著的大幅度升级,并具有实时性能。
Nov, 2017
本文提出了一种从单一 RGB 图像中检测和重构多个 3D 物体的方法,通过逐步优化检测、对齐和形状重构,选择最佳的几个候选形状,并采用轻量化的重构技术进行快速、端到端的训练。
Dec, 2020
本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
本研究基于车辆的单一 RGB 图像,提出了一种学习框架,其将 3D 视角的特征表示与 2D 外观特征相结合进行车辆识别,通过在 BoxCars 数据集上的分类和验证任务中取得优越性能的结果验证了该方法的有效性。
Mar, 2019
KM3D-Net 提出了一种基于 RGB 图像和关键点的单次检测框架,通过结合完全卷积模型、几何约束和不依赖 CAD 模型、深度生成器,以及一种有效的半监督训练策略,实现了卓越的检测表现,并超过以前所有的最先进方法。
Sep, 2020
该论文提出了一种高效准确的单目三维检测框架,通过预测图像空间中的九个三维边界框透视关键点,利用三维和二维透视的几何关系恢复三维空间中的物体属性,无需外部网络或监督数据,实现基于单目图像的实时三维检测。
Jan, 2020
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
提出了一种基于多摄像头的 3D 对象检测框架,使用基于上下文注意力的网络,直接在 3D 空间中进行边界框的预测,实现了全球最佳性能。
Oct, 2021
该研究提出了一种基于关键点的方法,通过一个 RGB 图像作为输入,对已知类别内的未知目标实例进行目录级别的物体位姿估计,采用单阶段神经网络,并在 Objectron 基准测试中表现出比现有方法更好的性能
Sep, 2021
该研究提出了一种通过单个 RGB 图像实现单目 3D 物体检测的方法,采用新颖的去耦合转换来实现 2D 和 3D 检测损失,以及一种新颖的自监督置信度分数来实现 3D 边界框。该方法通过隔离参数组对给定损失的贡献来解决了复杂互动参数存在的问题。同时,作者还通过改善 2D 检测结果的有符号交并比驱动损失来应用了损失去耦合。通过基于 KITTI3D 和 nuScenes 数据集的广泛实验评估和消融研究,该方法在车类别目标检测方面实现了新的最优成果。
May, 2019