单目三维物体检测中定位误差研究
本文提出了一种新的单目三维目标检测方法,通过考虑物体间的几何关系,探索它们的相互关系来更好地估计三维框,并使用检测到的二维框来全局约束相应的三维框的优化,通过提出的可微分损失函数(Homography Loss)来实现这一目标。实验证明,该方法表现出比其他最先进的方法在 KITTI 3D 数据集上具有更好的性能。
Apr, 2022
该研究提出了一种名为 MonoXiver 的方法,可通过组合 2D 到 3D 和 3D 到 2D 的信息流,使用 3D 空间局部网格搜索方式,实现单眼 3D 物体检测的 3D 中心定位。该方法使用 Perceiver I / O 模型,融合了几何信息和 2D 外观信息以学习去噪特征。在 KITTI 和 Waymo 数据集上的实验表明,MonoXiver 能在有限的计算开销下实现持续改进。
Apr, 2023
该研究提出了一种通过单个 RGB 图像实现单目 3D 物体检测的方法,采用新颖的去耦合转换来实现 2D 和 3D 检测损失,以及一种新颖的自监督置信度分数来实现 3D 边界框。该方法通过隔离参数组对给定损失的贡献来解决了复杂互动参数存在的问题。同时,作者还通过改善 2D 检测结果的有符号交并比驱动损失来应用了损失去耦合。通过基于 KITTI3D 和 nuScenes 数据集的广泛实验评估和消融研究,该方法在车类别目标检测方面实现了新的最优成果。
May, 2019
本文提出了一种基于单目 RGB 图像的 3D 目标检测方法 ——Center3D,通过利用 2D 和 3D 中心之间的差异及组合分类和回归方法,可以更加准确、高效地定位和深度估计,相较现有方法,实验表明此方法在 KITTI 数据集上表现更好。
May, 2020
通过引入 SS3D 方法,成功在单目图像中实现三维物体检测,并通过建模异方差性提高了基准性能。该方法在保持简洁的同时,达到了当前状态下最高的检测精度,是实现自主驾驶等领域高性能检测的可靠框架。
Jun, 2019
用于半监督三维物体检测的侧面感知框架,通过三个关键设计(三维边界框参数化方法、不确定性估计模块和伪标签选择策略)共同工作,显式地估计每个侧面的定位质量并在训练阶段分配不同级别的重要性,实验证明这种方法能在不同场景和评估指标下始终优于基准模型。此外,我们的方法在三个具有不同标记比例的数据集上达到了最先进的性能。
Dec, 2023
本文提出了一种针对自动驾驶车辆 3D 物体检测任务的新型两阶段 3D 物体检测方法,通过深度卷积神经网络回归两个额外的 3D 物体属性并与二维和三维框之间的级联几何约束相结合,旨在获取 3D 空间中物体位置的最佳解。
Sep, 2019
本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
本文提出了一种针对单目相机的 3D 车辆定位网络 CenterLoc3D,通过解决摄像头标定和使用空间约束嵌入到 CenterLoc3D 的损失函数实现了用于路侧单目摄像头的 3D 车辆定位,同时提出了 SVLD-3D 数据集、标注工具和评估指标。经实验验证,所提出的方法具有高精度和实时性。
Mar, 2022
通过研究路面对 3D 检测提供的额外信息,提出了一种嵌入式神经网络,能够充分利用这些应用程序特定的先验知识,从而实现使用单个 RGB 摄像机确定环境中对象的位置和方向的三维目标检测。
Feb, 2021