基于语义点生成的三维物体检测无监督领域自适应
本文提出了 SF-UDA^3D 框架,基于伪标注、可逆的尺度转换和运动相干性,将最先进的 PointRCNN 3D 检测器域自适应到无注释目标域中,结果在 KITTI 和 nuScenes 上都优于以前的特征对齐方法和最先进的 3D 目标检测方法。
Oct, 2020
本研究提出一种应用于基于激光雷达的3D物体检测器的无源自适应方法,该方法使用班级原型来缓解误标签噪声的影响,利用转换器模块识别对应于错误、过于自信的注释的离群ROI,通过自学习的过程,降低伪标签的损失并提高性能。
Nov, 2021
本文提出了一种高效的基于点云的3D检测器IA-SSD,利用可学习的面向任务的实例感知下采样策略分层选择感兴趣物体的前景点,进一步估计精确的实例中心,并采用仅编码器架构实现。大规模检测基准测试表明,该模型具有卓越的速度性能,能够以80个以上的速度在KITTI数据集上进行实时检测。
Mar, 2022
本文提出了一种名为SPNet的新型语义传递框架,它使用丰富的上下文绘制来提高现有基于lidar的3D检测模型的性能,通过知识传递模块在不同的粒度上指导纯lidar网络学习经过语义渲染的表示,可以与大多数现有的3D检测框架无缝协作,在KITTI测试基准上甚至实现了新的3D检测性能最佳水平。
Jul, 2022
提出了一种半监督领域自适应方法,名为“SSDA3D”,包括两个阶段的Point-CutMix模块和Intra-domain Generalization,很好地解决了不同LiDAR配置、城市和天气等领域间偏移问题,不依赖于大量标注数据,在只有10%目标数据标注的情况下,可以超过100%目标标签的完全监督模型。
Dec, 2022
MS3D++是一个用于3D目标检测的自我训练框架,通过生成高质量的伪标签实现多源无监督域适应,改进了3D检测器在不同领域中的泛化能力,并在Bird's Eye View(BEV)评估中,使用MS3D++伪标签训练的检测器在低密度和高密度lidar的性能上达到了与人工标注标签相媲美的最新水平。
Aug, 2023
通过使用LiDAR传感器和场景语义,我们提供了一种新的仅依靠LiDAR传感器的增强型原始扫描的稠密伪点云框架,无需摄像机,该框架首先利用分割模型从原始点云中提取场景语义,然后使用多模态的域转换器生成伪图像分割和深度提示,从而生成一种富含语义信息的稠密伪点云,并通过引入新的语义引导投影方法增强检测性能。
Sep, 2023
我们研究在自动驾驶场景中从3D点云中进行无监督对象检测的问题,提出了一种简单而有效的方法,利用点聚类、时间一致性、CNN的平移等性质以及自我监督来改进无监督检测算法,通过在非相近区域进行自动标记扩展到远距离,从而实现了零-shot方式的对象检测,能够在稀疏、远距离区域进行检测,同时在更多迭代自我训练的过程中不断改进。我们提出了基于碰撞距离的新的规划感知度量来更好地衡量模型在自动驾驶场景中的性能。我们在PandaSet和Argoverse 2 Sensor数据集上展示了我们的无监督对象检测器显著优于无监督基线的性能,证明了自我监督与对象先验相结合可以实现野外对象发现的潜力。
Nov, 2023
本研究针对激光雷达点云中3D目标检测面临的标签不足问题,提出了一种全新的无监督检测方法,利用视觉-语言信息指导目标分类。通过挖掘激光雷达点云的时空信息,研究显示该方法在Waymo开放数据集和Argoverse 2上分别提升了23和7.9的AP3D,标志着领域内的重要进展。
Aug, 2024