FGR: 基于截锥体感知的弱监督 3D 车辆检测几何推理
本文提出了一种基于三维包围盒的车辆细粒度识别方法,不局限于特定视角,通过 CNN 网络的训练与改进,较之其他算法提高了 12% 的识别准确率。
Mar, 2017
本文提出了一种针对自动驾驶车辆 3D 物体检测任务的新型两阶段 3D 物体检测方法,通过深度卷积神经网络回归两个额外的 3D 物体属性并与二维和三维框之间的级联几何约束相结合,旨在获取 3D 空间中物体位置的最佳解。
Sep, 2019
本文提出了一种基于单个 RGB 图像的高效三维目标检测框架,旨在从二维图像中提取三维信息并在无点云或立体数据的情况下确定对象的精确三维边界框。该方法利用二维目标检测器提取表面视觉特征,消除使用二维边界框带来的表征歧义问题,并探索了不同的三维边界框细化方法,发现基于质量感知损失的分类式方法具有更好的性能。在 KITTI 基准测试上,该方法优于当前单个 RGB 图像基础的三维目标检测技术水平。
Mar, 2019
本研究基于车辆的单一 RGB 图像,提出了一种学习框架,其将 3D 视角的特征表示与 2D 外观特征相结合进行车辆识别,通过在 BoxCars 数据集上的分类和验证任务中取得优越性能的结果验证了该方法的有效性。
Mar, 2019
本文提出 VS3D,一个从点云中弱监督学习的 3D 目标检测框架,其中引入了无监督的 3D proposal 模块和跨模态知识蒸馏策略,在 KITTI 数据集上取得了优异的性能。
Jul, 2020
我们提出了 Fine-Grained Lidar-Camera Fusion (FGFusion) 方法,通过设计双通路层次结构提取图像的高级语义和低级详细特征,引入辅助网络指导点云特征学习细粒度的空间信息,最后采用多尺度融合 (MSF) 方法将图像和点云的特征融合,通过在 KITTI 和 Waymo 两个常用的自动驾驶基准上进行的大量实验验证了我们方法的有效性。
Sep, 2023
本文提出一种基于弱监督学习的 3D 物体检测方法,只需要少量弱标记场景和少量精确标记的物体实例来训练,而且使用该方法训练的模型可以作为 3D 物体注释器使用,并显示出提高性能的潜力。
Jul, 2020
对于弱监督的三维物体检测任务,本文提出了一种框架来研究如何在无需任何三维标签的情况下利用二维和三维领域之间的约束,通过三种视角的视觉数据建立二维和三维领域之间的关联。实验证明,在无需使用任何三维标签的情况下,该方法在 KITTI 数据集上取得了与最先进方法相媲美的性能。
Dec, 2023
在标签有限的情况下,本文提出了一种通用而简单的框架来解决点云理解问题,利用传统和学习到的 3D 描述符进行方法比较,并提出了基于亲和性的学习区域合并策略,该方法在各种实验设置下优于现有方法,无需复杂的学习策略。
Dec, 2023
本文介绍了一种新的标注方法,将人类监督与预训练的神经网络相结合,生成每个实例的三维点云分割,三维边界框和类别注释,以减少训练自动驾驶的 3D 物体检测器所需的任务复杂性和注释人员所需的任务切换量,实验结果表明,该方法相比传统方法减少了 30 倍人工标注时间。
Jul, 2018