仅自底向上查看的单目三维物体检测
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
通过建立在 CenterNet 上的高效和有效的框架 YOLC,我们引入了局部尺度模块(LSM)来解决处理大规模图像和非均匀目标分布时的挑战,通过使用高斯 Wasserstein 距离(GWD)修改回归损失以获得高质量边界框,并在检测头部使用可变形卷积和改进方法来增强对小目标的检测。我们在 Visdrone2019 和 UAVDT 等两个航拍图像数据集上进行了大量实验,证明了我们提出的方法的有效性和优越性。
Apr, 2024
本文提出了一种适用于单目三维目标检测的新型基于物体的体素表示法,能够有效地组织噪点云在体素网格内,并能够精确定位对象在三维空间中的位置。通过考虑三维物体与相关二维框之间的关系,我们将单目三维目标检测中的置信度机制进行了分解,并在 KITTI 数据集上进行了评估,性能显著优于现有技术。
Apr, 2021
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019
本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
提出了一种基于多视角和弱标签的纯 RGB 序列的自监督 3D 物体检测方法,其在 KITTI 3D 数据集上的性能与使用激光雷达或立体图像的最先进的自监督方法相当。
May, 2023
本文提出了一个基于自底向上框架和掌握占用信息的 Lifting 的 BUOL 方法,以解决从单个图像进行全景三维场景重构时的实例通道和体素重建的两个歧义问题,结果显示该方法在 3D-Front 合成数据集和 Matterport3D 真实数据集上的表现优于现有方法。
Jun, 2023
通过引入 SS3D 方法,成功在单目图像中实现三维物体检测,并通过建模异方差性提高了基准性能。该方法在保持简洁的同时,达到了当前状态下最高的检测精度,是实现自主驾驶等领域高性能检测的可靠框架。
Jun, 2019
通过使用 2D 检测作为指令,我们提出了一种新颖且简单的方法来解决沿路单目三维检测问题,该方法在两个大规模路边三维检测基准上取得了当前最先进的性能。
Apr, 2024
研究了 3D 目标检测中的 2D 检测问题,提出了基于全卷积单级检测器的通用框架 FCOS3D,在不使用 2D 检测或 2D-3D 对应先验的前提下,通过重新定义中心性和将对象分配到不同的特征级别等方式,得到了简单而又高效的解决方案。在 NeurIPS 2020 的 nuScenes 3D 检测挑战赛中,该方法在所有只使用视觉信息的方法中获得第一名。
Apr, 2021