单目三维车辆检测与跟踪
该研究提出了一种可靠和准确的基于 3D 跟踪的框架,可在众多应用中预测周围物体的未来位置和规划观察者的行动,通过使用拟密度相似性学习,基于 2D 图像,进行初始 2D 关联,并进一步利用 3D 边界框深度排序启发式来实现强健的实例关联和基于运动的 3D 轨迹预测,实验表明,在基准测试中,该框架在城市驾驶场景下具有稳健的物体关联和跟踪,可用于自动驾驶。
Mar, 2021
本文提出了一种针对单目相机的 3D 车辆定位网络 CenterLoc3D,通过解决摄像头标定和使用空间约束嵌入到 CenterLoc3D 的损失函数实现了用于路侧单目摄像头的 3D 车辆定位,同时提出了 SVLD-3D 数据集、标注工具和评估指标。经实验验证,所提出的方法具有高精度和实时性。
Mar, 2022
本文提出了一种针对自动驾驶车辆 3D 物体检测任务的新型两阶段 3D 物体检测方法,通过深度卷积神经网络回归两个额外的 3D 物体属性并与二维和三维框之间的级联几何约束相结合,旨在获取 3D 空间中物体位置的最佳解。
Sep, 2019
提出了一种基于线性运动的单目视频三维物体检测方法,该方法通过将物体方向分解为两个部分并引入自平衡的三维置信度方法,有效地提高了三维定位精度,同时在 KITTI 自动驾驶数据集上取得了最好的表现。
Jul, 2020
本文提出了一种基于立体视觉的方法,用于在动态自动驾驶情景下跟踪摄像机姿态和三维语义对象,该方法使用易于标注的二维检测和离散视点分类结合轻量级语义推理方法获取粗略的三维物体测量,并基于当前的物体感知相机姿态跟踪实现物体位置的估计与 3D 建模以获得精确度和时间一致性。
Jul, 2018
本文提出了一个新的全局关联图模型与链接预测方法,以预测现有的 tracklets 位置并通过交叉注意力运动建模和外观重新识别将检测与 tracklets 链接起来,以解决由于不一致的 3D 对象检测引起的问题,并提高 nuScenes 检测挑战中标准 3D 对象检测器的检测准确率。实验结果表明,该方法在现有基于视觉的跟踪数据集上表现出了 SOTA 的性能。
Apr, 2022
该论文探讨了在 2D 多目标跟踪中的数据关联问题,并借鉴 3D 目标表示来解决这一问题,提出了一种新的基于 Pseudo 3D 标签的 2D MOT 方法 P3DTrack,通过视频数据自学习 3D 目标表示,并在 Waymo 开放数据集上达到了最新的最佳性能。
Jun, 2023
本文提出了一种灵活的管道来采用任何 2D 检测网络并将其与 3D 点云融合,以产生最小的 2D 检测网络变化的 3D 信息,使用卷积神经网络(CNN)进行改善,实现了机动车无人驾驶三维物体感知,排名第二。
Feb, 2018
本文提出了一种从单张图像中推断车辆 3D 姿态和形状的方法,采用可塑性线框模型生成车辆形状和姿态的精细尺度表示,并结合三个任务先验,包括无监督单目深度、地平面约束以及车辆形状先验,通过将前向投影误差整合到总能量函数中优化两级投影一致性来解决这个逆问题。
Jan, 2019
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021