空中单目三维物体检测
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
通过训练一个鲁棒的单目三维物体检测模型,采用包括多样化的三维和二维数据集、有选择地训练不同类别注释的数据集和使用二维标签的伪三维训练方法,我们可以获得具有强大泛化能力和对只有二维标签的新数据集表现出色的模型。
Oct, 2023
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
本文提出了一种基于深度学习目标检测的无人机多目标跟踪和三维定位方案,将 TrackletNet Tracker(TNT)和多视图立体技术相结合,能够对设备拍摄的对象进行检测、跟踪并测定其三维坐标。
Oct, 2019
本文提出了一种名为 SGM3D 的新方法,通过引入多粒度域自适应和基于 IoU 匹配的对齐方法,将立体 3D 特征适应到单眼检测中,显著提高了检测性能。实验证明,该方法在 KITTI 和 Lyft 数据集上取得了最先进的结果。
Dec, 2021
这篇论文通过引入结构增强、数据驱动策略和自主驾驶环境下的无监督深度估计,为自主驾驶应用中基于视觉的 3D 感知技术的广泛应用打下了坚实基础。
Mar, 2024
我们提出了一个名为 DART3D 的鲁棒性深度感知对抗训练方法,用于单目 3D 对象检测,通过设计迭代退化攻击和基于不确定性的残差学习方法,提高了模型对对抗攻击的鲁棒性,在 KITTI 3D 数据集上的实验中,在 Easy,Moderate 和 Hard 设置下的车辆类别的 3D 对象检测评价指标 $AP_{R40}$ 上,相比直接对抗训练方法,分别实现了 4.415%,4.112% 和 3.195% 的提升。
Sep, 2023
本研究提出了一种基于几何关系的 monocular 三维物体检测方法,通过单独的三维区域建议网络和深度感知卷积层,能够有效地改善基于图像的三维物体检测在自动驾驶领域中的表现。在 KITTI 数据集上,与其他之前的方法相比,M3D-RPN 方法在单眼三维物体检测和俯视图检测任务中都表现出显著的性能提升。
Jul, 2019
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
该研究提出了一种基于深度神经网络和形态感知的三维目标检测方法,利用二维关键点和对应的三维坐标以及二维 / 三维的几何约束提高检测性能,并在公共数据集 KITTI 上实现了最新的性能。
Aug, 2021