CL3D:基于无监督领域自适应的跨激光雷达 3D 检测
提出了一种半监督领域自适应方法,名为 “SSDA3D”,包括两个阶段的 Point-CutMix 模块和 Intra-domain Generalization,很好地解决了不同 LiDAR 配置、城市和天气等领域间偏移问题,不依赖于大量标注数据,在只有 10%目标数据标注的情况下,可以超过 100%目标标签的完全监督模型。
Dec, 2022
我们在这项研究中填补现有无监督领域自适应方法的空白,这些方法主要集中于适应已经建立的高密度自动驾驶数据集。我们专注于稀疏的点云,从不同的角度捕捉场景,不仅来自道路上的车辆,还来自人行道上的移动机器人,遇到显著不同的环境条件和传感器配置。我们引入了无监督对抗领域自适应三维物体检测(UADA3D),不依赖于预训练源模型和师生架构,而是使用对抗性方法直接学习域不变特征。我们在各种适应场景中证明了其功效,在自动驾驶汽车和移动机器人领域都取得了显著的改进。我们的代码是开源的,即将推出。
Mar, 2024
自动驾驶中的 LiDAR 数据集存在诸如点云密度、范围和物体尺寸等属性偏差,因此在不同环境中训练和评估的物体检测网络往往会遇到性能下降的问题。为了解决这个问题,域自适应方法假设可以获取来自测试分布的未标注样本。但是,在实际世界中,部署条件和获得代表测试数据集的样本可能无法获得。我们认为,更现实和具有挑战性的形式是要求对未知目标域具有性能的鲁棒性。我们提出了一种双重方式来解决这个问题。首先,我们利用大多数自动驾驶数据集中存在的配对的 LiDAR - 图像数据进行多模态物体检测。我们建议通过利用图像和 LiDAR 点云的多模态特征来进行场景理解任务,从而使得物体检测器对未知域的转换更加鲁棒。其次,我们训练一个 3D 物体检测器,在不同分布之间学习多模态物体特征,并促进这些源域之间的特征不变性,以提高对未知目标域的泛化性能。为此,我们提出了 CLIX$^ ext {3D}$,它是一个用于 3D 物体检测的多模态融合和有监督对比学习框架,它在对不同数据集转换下实现了最先进的域泛化性能。
Apr, 2024
通过利用未标记的多次穿越多个位置的方法,我们提出了一种用于自动驾驶汽车的 3D 物体检测系统的快速发展,该方法能够适应新的驾驶环境,并且在检测行人和远处物体方面取得了显著的性能提升。
Sep, 2023
本文提出了 SF-UDA^3D 框架,基于伪标注、可逆的尺度转换和运动相干性,将最先进的 PointRCNN 3D 检测器域自适应到无注释目标域中,结果在 KITTI 和 nuScenes 上都优于以前的特征对齐方法和最先进的 3D 目标检测方法。
Oct, 2020
我们提出了一种能够在无监督领域适应中实现 3D 物体检测的框架,称为 STAL3D,通过协作自训练和对抗学习利用伪标签和特征分布对齐的互补优势,并设计了面向 3D 跨域场景的背景抑制对抗学习模块和尺度过滤模块,有效减轻了大部分背景干扰和源域尺寸偏差的问题。在多个跨域任务上,我们的 STAL3D 实现了最先进的性能,甚至在 Waymo 到 KITTI 和 Waymo 到 KITTI-rain 任务上超过了 Oracle 结果。
Jun, 2024
本研究提出了一种基于图像与点云的混合特征增强方法,通过利用 SAM 模型在三维领域中的普适性能力,解决了未标注域适应中的领域差异问题,并在三维分割任务中取得了最新的研究进展。
Oct, 2023
提出了一种新颖的无监督领域自适应三维检测框架 GPA-3D,通过显式利用点云对象的内在几何关系来减少特征差异,从而实现跨领域的转移,并在各种基准测试中证明了其优越性。
Aug, 2023
介绍了一种无锚点、无 NMS 的 3D 点云目标检测器,使用对象关键点编码 3D 属性实现端到端检测,利用数据增强和点着色以及投影到相机空间和图像感知信息的附加属性来增强性能,并通过模型集成和 TTA 在 3D 检测和域自适应路线上实现了第一名。
Jun, 2020