透视感知卷积在单目三维物体检测中的应用
该研究提出了一种基于 2D 透视范围图像的卷积神经网络架构方法,可用于直接从范围图像视图学习 3D 表示。通过利用本地几何和跨模态融合处理,该方法在行人检测方面的 AP 从 69.7%提高到 75.5%,同时模型参数和操作速度均表现良好。
Jun, 2021
本研究中,我们利用深度卷积神经网络架构在 2D 图像和 3D 空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
通过提出一个伪立体式的三维检测框架,包括三种新颖的虚拟视图生成方法和基于视差动态卷积的特征滤波,从单张图片中进行三维物体检测,该方法在 KITTI-3D 基准测试中获得了车辆、行人和骑行者三个类别的第一名。
Mar, 2022
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
Dec, 2018
本文采用正交特征变换的方式将图像特征映射到三维空间,从而让我们能够在一个具有一致尺度和可推断真实距离的领域中全面考虑场景的空间配置,运用于端到端的深度学习架构中,在 KITTI 3D 物体基准测试上实现了最先进的性能。
Nov, 2018
研究了 3D 目标检测中的 2D 检测问题,提出了基于全卷积单级检测器的通用框架 FCOS3D,在不使用 2D 检测或 2D-3D 对应先验的前提下,通过重新定义中心性和将对象分配到不同的特征级别等方式,得到了简单而又高效的解决方案。在 NeurIPS 2020 的 nuScenes 3D 检测挑战赛中,该方法在所有只使用视觉信息的方法中获得第一名。
Apr, 2021
本研究提出了一种新的本地卷积神经网络 (D4LCN),该网络通过学习基于图像深度映射的过滤器及其响应域,克服了传统 2D 卷积的局限性,缩小了图像表达和 3D 点云之间的差距,显著提高了 3D 物体检测的性能。
Dec, 2019
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019