Complexer-YOLO:基于语义点云的实时 3D 目标检测和跟踪
使用激光雷达基于点云数据构建一个能够实时 3D 检测物体的深度学习算法,该算法使用了 Euler-Region-Proposal Network (E-RPN) 技术,确保了高准确性和高效率。该算法在 KITTI 基准测试中表现出色。
Mar, 2018
本文介绍一种基于 YOLO v2 算法与 3D 点云技术相结合的方法,能够在自动驾驶中快速、准确地识别 3D 物体边界框,实现了 40 帧每秒的实时性能。
Aug, 2018
该论文提出了一种高效准确的单目三维检测框架,通过预测图像空间中的九个三维边界框透视关键点,利用三维和二维透视的几何关系恢复三维空间中的物体属性,无需外部网络或监督数据,实现基于单目图像的实时三维检测。
Jan, 2020
在自动驾驶中,相较于 2D 检测,3D 检测能够提供更精确的信息用于路径规划和运动估计。然而,由于缺乏几何信息,单一和多视角图像以及来自相机的深度图在检测精度上相对较低。本文提出了 SeSame:一种基于点的语义特征的新表达方法,以确保基于 LiDAR 的 3D 检测具有充足的语义信息。实验证明,我们的方法在 KITTI 物体检测基准测试中在不同难度级别和车辆上优于以前的最先进方法。
Mar, 2024
本文提出了一种自动驾驶中单目三维物体检测框架,着重解决了二维图像数据的不足,通过将输入数据从二维图像平面转换为三维点云空间进行处理,并使用 PointNet 网络进行三维检测,以提高点云的辨别能力,同时利用多模态融合模块将 RGB 颜色信息融入点云表示,证明了在三维空间中推断三维包围盒比在二维图像平面中更加有效,经过在 KITTI 数据集上的评估,该方法的表现超过现有最新的单目方法。
Mar, 2019
该论文研究了自动驾驶场景下高精度的 3D 物体检测问题。其提出了 Multi-View 3D networks(MV3D)框架,该框架采用多传感器融合技术,将 LIDAR 点云和 RGB 图像作为输入,并预测有方向的 3D 界限框。实验表明,该方法在 3D 定位和 3D 检测任务方面的表现优于现有技术约 25%和 30%,在 2D 检测中也表现出显著的技术优势。
Nov, 2016
本文提出了一种高效而健壮的技术,实现了 3D 室内场景的即时密集语义分割和重建,该方法基于高效的超体素聚类方法和来自结构和对象线索的高阶约束的条件随机场,无需预先计算即可进行渐进式密集语义分割。通过对 SceneNN 和 ScanNet 数据集中的不同室内场景进行广泛评估,证明了该技术在定性和定量实验中始终能够产生最先进的分割结果。
Apr, 2018
本论文提出了一种联合多任务网络设计,用于同时学习目标检测和语义分割,以实现低功耗嵌入式 SOC 上的实时性能,并在两个公共数据集(KITTI,Cityscapes)和私人鱼眼相机数据集中评估提出的网络。
Jan, 2019
MS$^{2}$3D 是一个两阶段的三维检测框架,利用小尺寸的体素提取细粒度的局部特征和大尺寸的体素捕捉长程局部特征,通过多尺度语义特征点构建三维特征层并计算特征点与目标质心的偏移,以提高特征聚合的效率,在 KITTI 数据集和 ONCE 数据集上验证了该方法的有效性。
Aug, 2023
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019