3D 物体检测的领域泛化:密度重采样
提出了一种半监督领域自适应方法,名为 “SSDA3D”,包括两个阶段的 Point-CutMix 模块和 Intra-domain Generalization,很好地解决了不同 LiDAR 配置、城市和天气等领域间偏移问题,不依赖于大量标注数据,在只有 10%目标数据标注的情况下,可以超过 100%目标标签的完全监督模型。
Dec, 2022
单域泛化(S-DG)方法用于将模型推广到未知环境,但大多数方法局限于分类领域,在目标检测中会导致语义特征损坏,我们提出一种面向目标检测的目标感知领域泛化(OA-DG)方法,包括数据增强和训练策略(OA-Mix 和 OA-Loss),通过生成多域数据和学习域不变表示,我们的方法在标准基准上优于现有研究。
Dec, 2023
提出了一种单源域泛化的方法,通过构建结构因果模型来分析任务中的数据偏差和特征偏差,并设计了全局 - 本地转换模块和因果关注学习模块来增强算法的泛化能力。在五个场景的实验中,该方法取得了明显的改进,夜晚晴朗场景的 mAP 提高了 3.9%。
May, 2024
本文提出了一种仅利用一个源数据集来缓解模型在面对新领域数据时遇到的未知领域差异的方法 - Single-dataset Unified Generalization(SUG)框架,主要包括 Multi-grained Sub-domain Alignment(MSA)方法和 Sample-level Domain-aware Attention (SDA)策略,实验表明我们的方法可以提高 3D DG 问题中模型的泛化能力。
May, 2023
本文提出了一种基于语义点生成的通用方法,通过生成语义点并将其合并到原始点云中,增强了 LiDAR 检测器对域漂移的可靠性,取得了显著的改进,特别是针对自动驾驶中涉及的物体检测任务。
Aug, 2021
提出一种密度无关的模型,基于点云数据进行 3D 物体检测。采用了一种随机光束重新采样的方法,对目标领域数据进行训练,实现克服领域差异的目的。实验证明该方法显著提高了检测精度和泛化性能,特别在领域数据不均匀的情况下表现优异。
Apr, 2023
本文提出了 SF-UDA^3D 框架,基于伪标注、可逆的尺度转换和运动相干性,将最先进的 PointRCNN 3D 检测器域自适应到无注释目标域中,结果在 KITTI 和 nuScenes 上都优于以前的特征对齐方法和最先进的 3D 目标检测方法。
Oct, 2020
提出了一种新的自我训练管道 MS3D,用于无监督领域适应的 3D 目标检测,其使用不同的预训练探测器结合时间信息生成高质量的伪标签进行微调。使用我们提出的核密度估算(KDE)盒融合方法来融合来自多个域的盒子提议,以获得超过最佳源域探测器性能的伪标签。MS3D 表现出更大的领域位移鲁棒性,并能够在较大距离上产生准确的伪标签,因此非常适合从高到低波束领域适应和反之。该方法在所有评估数据集上都取得了最先进的性能,而且我们证明了预先训练源探测器的选择对自我训练结果影响较小,因此 MS3D 适用于实际应用。
Apr, 2023
本研究系统地研究了简单、基于规则的图像增强方法(如模糊、噪声、色彩抖动等)对深度神经网络(DNNs)的领域内外泛化能力。 实验结果表明,对多个不同的图像增强进行组合优于单独使用单个图像增强,并且与最先进的领域泛化方法相比表现相当。
Apr, 2023
MS3D++ 是一个用于 3D 目标检测的自我训练框架,通过生成高质量的伪标签实现多源无监督域适应,改进了 3D 检测器在不同领域中的泛化能力,并在 Bird's Eye View(BEV)评估中,使用 MS3D++ 伪标签训练的检测器在低密度和高密度 lidar 的性能上达到了与人工标注标签相媲美的最新水平。
Aug, 2023