基于 SAM 指导的无监督领域适应用于 3D 分割
该工作提出了一种统一的深度感知无监督域自适应框架,通过在源领域中利用密集深度的多种补充方式,最大限度地利用了这种特权信息来训练 UDA 模型,从而提高了目标领域上训练的语义分割模型的性能,并在不同的具有挑战性的 synthetic-2-real 基准测试上实现了最先进的性能。
Apr, 2019
本研究提出了一种新的基于统计学习方法的 LiDAR 全景分割的 UAD 方法,该方法利用数据依赖性和模型依赖性的两种不同的策略来解决无监督域适应问题,并在真实世界自动驾驶数据集上进行了广泛评估,结果显示该方法在 PQ 得分方面优于现有的 UDA 方法高达 6.41pp。
Sep, 2021
我们在这项研究中填补现有无监督领域自适应方法的空白,这些方法主要集中于适应已经建立的高密度自动驾驶数据集。我们专注于稀疏的点云,从不同的角度捕捉场景,不仅来自道路上的车辆,还来自人行道上的移动机器人,遇到显著不同的环境条件和传感器配置。我们引入了无监督对抗领域自适应三维物体检测(UADA3D),不依赖于预训练源模型和师生架构,而是使用对抗性方法直接学习域不变特征。我们在各种适应场景中证明了其功效,在自动驾驶汽车和移动机器人领域都取得了显著的改进。我们的代码是开源的,即将推出。
Mar, 2024
本文介绍了一种无监督领域自适应的方法,使用隐式表面表示同时在源数据和目标数据上进行学习的辅助任务来缓解不同激光雷达模式或获取条件变化等原因导致的性能差异,实验证明了该方法比现有技术在合成到真实和真实到真实的情况下均取得了更好的性能。
Apr, 2023
本研究提出一种在线无监督域自适应算法,通过在共享嵌入空间中最小化源潜在特征与目标特征之间的分布距离,促进两个领域之间的共享领域无关潜在特征空间,从而改善图像的语义分割模型在未注释领域上的泛化性能。为了在自适应过程中减轻对源样本访问的需求,我们通过一个合适的替代分布(如高斯混合模型)来近似源潜在特征分布。我们在已建立的语义分割数据集上评估了我们的方法,并证明它在未注释领域的泛化性能上与最先进的无监督域自适应方法相比具有竞争优势。
Jan, 2024
提出了一种半监督领域自适应方法,名为 “SSDA3D”,包括两个阶段的 Point-CutMix 模块和 Intra-domain Generalization,很好地解决了不同 LiDAR 配置、城市和天气等领域间偏移问题,不依赖于大量标注数据,在只有 10%目标数据标注的情况下,可以超过 100%目标标签的完全监督模型。
Dec, 2022
本文概述了用于语义分割的深度网络无监督域适应的最新进展,并提供了清晰的分类。该文介绍了该问题的各种情况、不同水平上的适应策略、以及基于对抗学习、生成式、分类器差异性分析、自学习、熵最小化、课程学习和多任务学习等方法的文献综述。该文最后通过在自动驾驶情景下对各种方法的性能进行比较。
May, 2020
本文提出了 SF-UDA^3D 框架,基于伪标注、可逆的尺度转换和运动相干性,将最先进的 PointRCNN 3D 检测器域自适应到无注释目标域中,结果在 KITTI 和 nuScenes 上都优于以前的特征对齐方法和最先进的 3D 目标检测方法。
Oct, 2020
通过结合输入数据的时间和跨传感器的几何一致性和均值教师方法,我们引入了一种新颖的领域适应方法,称为 T-UDA(时间 UDA),该方法在驾驶场景的 3D 语义分割任务中取得了显著的性能提升。
Sep, 2023
本文提出一种基于特征聚类和正交性损失等方法的无监督领域自适应策略,能够在合成到真实场景的情况下有效提高特征空间结构的判别能力并达到最先进的性能。
Nov, 2020