使用立体图像生成三维物体建议,实现准确的物体分类检测
提出了一种基于稀疏和稠密、语义和几何信息的 3D 目标检测方法,名为 Stereo R-CNN,在自动驾驶领域表现优异,无需 3D 位置监督,与现有的基于图像的全监督方法相比,性能更好,实验表明在 KITTI 数据集上,其在 3D 检测和 3D 定位任务中超过现有的基于立体视觉的方法约 30% 的 AP。
Feb, 2019
本文提出了一种在自动驾驶背景下具有多传感器优化的三维目标检测系统,其中单眼相机可以作为二维目标提议和初步三维边界框预测,而立体相机和 LiDAR 则被视为自适应插件传感器以优化 3D 边界框本地化性能。
Sep, 2019
本文提出了一种利用立体照相机生成 3D 物体点云,并将深度估计和物体检测任务以同一度量空间进行统一的方法,其性能优于现有方法,具有更快的推理时间。
Jan, 2021
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
Dec, 2018
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
研究采用一种新型 2D 框和以物体为中心的立体匹配方法,通过测量目标物体的视差来解决当前立体匹配网络固有的偏差问题,从而实现自主驾驶中的 3D 对象检测。
Sep, 2019
本文研究从立体图像中检测 3D 物体的问题,提出了使用 3D 锚点构建物体级对应的方法来增强检测和定位的深度神经网络,使用经济高效的渠道重新加权策略来增强表示特征。在 KITTI 数据集上,这些方法都优于现有方法。
Jun, 2019
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019