BoxCars:使用交通监控中的 3D 边界框提高车辆细粒度识别
本文提出了一种针对自动驾驶车辆 3D 物体检测任务的新型两阶段 3D 物体检测方法,通过深度卷积神经网络回归两个额外的 3D 物体属性并与二维和三维框之间的级联几何约束相结合,旨在获取 3D 空间中物体位置的最佳解。
Sep, 2019
本研究基于车辆的单一 RGB 图像,提出了一种学习框架,其将 3D 视角的特征表示与 2D 外观特征相结合进行车辆识别,通过在 BoxCars 数据集上的分类和验证任务中取得优越性能的结果验证了该方法的有效性。
Mar, 2019
该论文介绍了一个新型的深度学习框架 Evolving Boxes,可以快速从交通监控摄像头中检测车辆,包括轻量级的候选框网络和精细调整网络,以及不同的特征融合技术,相比 Faster RCNN 在 DETRAC 基准测试中提高了 9.5% 的 mAP,可以在商业 GPU 上以 9-13 FPS 的检测速度运行。
Feb, 2017
这篇研究论文提出了一种基于单摄像头图像的广范围伪 3D 车辆检测方法,包括图像拼接、特殊设计的检测头以及联合约束损失,通过捕捉车辆的形状和姿态信息实现高精度的车辆检测。实验结果表明,在多项评估指标上,该模型在广范围伪 3D 车辆检测上表现出色。
Sep, 2023
本文提出了一种灵活的管道来采用任何 2D 检测网络并将其与 3D 点云融合,以产生最小的 2D 检测网络变化的 3D 信息,使用卷积神经网络(CNN)进行改善,实现了机动车无人驾驶三维物体感知,排名第二。
Feb, 2018
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019
本文提出了一种基于 3D 可变形线框的高分辨率车辆对象表示,该表示能精细地建模单个点和面的水平,结合此表示和明确的 3D 场景模型,我们能够对场景进行更细致和准确的理解并从单个视角评估多个对象的位置与视点的单眼 3D 姿态估计。
Nov, 2014
本文提出一种适用于无 3D 辅助注释的点云中车辆物体检测的方法,采用基于参数的对象分割和 3D 边界框估计算法,生成伪标签数据进行半监督学习。实验结果表明,该方法能够在缺乏 3D 数据的情况下,从只有 2D 框和稀疏点云的信息中准确的检测出 3D 空间中的目标物体。
May, 2021
提出了一种基于单目视觉的 3D 车辆检测和跟踪的在线框架,并利用 3D 车辆坐标信息和深度匹配对数据进行关联,并设计了一个基于 LSTM 的动作学习模块,以进行更准确的长期运动外推。实验结果表明,该跟踪系统可以提供抗干扰性更强的数据关联和跟踪能力,并且在跟踪 30 米内的行驶车辆方面比基于激光雷达的方法表现更好。
Nov, 2018
该研究提出一种基于单目 RGB 图像的三维车辆检测方法,为此创建了 Cityscapes 3D 数据集,包含了所有类型车辆的三维标注信息,使得与基于 lidar 的方法相比具有更高效率和更大范围的标注信息。此外,研究将 2D 实例分割与 3D 包围盒成对提供,以便多任务学习。这对自动驾驶技术有着很重要的意义。
Jun, 2020