LiDAR 全景分割的无监督域自适应
本文介绍了一种无监督领域自适应的方法,使用隐式表面表示同时在源数据和目标数据上进行学习的辅助任务来缓解不同激光雷达模式或获取条件变化等原因导致的性能差异,实验证明了该方法比现有技术在合成到真实和真实到真实的情况下均取得了更好的性能。
Apr, 2023
LiDAR-UDA 是一种新颖的两阶段自我训练无监督域适应(UDA)方法,用于 LiDAR 分割,通过引入两种技术,即 LiDAR 束采样和交叉帧合成,以减少传感器差异并改善伪标签质量,我们的方法在公共 LiDAR 数据集上表现优于现有方法,平均 mIoU 提高超过 3.9%。
Sep, 2023
提出了一种名为 LIDAPS 的新型模型,通过 IMix 策略实现了实例级的域适应,提高了全景质量,并利用 CLIP-based domain alignment (CDA) 方法来解决语义性能下降的问题,在流行的全景无监督域适应基准测试中取得了最先进的结果。
Apr, 2024
本研究提出了一种基于图像与点云的混合特征增强方法,通过利用 SAM 模型在三维领域中的普适性能力,解决了未标注域适应中的领域差异问题,并在三维分割任务中取得了最新的研究进展。
Oct, 2023
提出了一个两阶段训练策略来实现领域自适应的稳健性,第一阶段利用对抗样本增强来增强源模型的稳健性和泛化能力,第二阶段提出了一种新的稳健伪标签和伪边界方法,有效利用无标签目标数据生成伪标签和伪边界,实现模型的自适应,无需源数据。在跨领域眼底图像分割上的实验结果证实了该方法的有效性和通用性。
Oct, 2023
我们在这项研究中填补现有无监督领域自适应方法的空白,这些方法主要集中于适应已经建立的高密度自动驾驶数据集。我们专注于稀疏的点云,从不同的角度捕捉场景,不仅来自道路上的车辆,还来自人行道上的移动机器人,遇到显著不同的环境条件和传感器配置。我们引入了无监督对抗领域自适应三维物体检测(UADA3D),不依赖于预训练源模型和师生架构,而是使用对抗性方法直接学习域不变特征。我们在各种适应场景中证明了其功效,在自动驾驶汽车和移动机器人领域都取得了显著的改进。我们的代码是开源的,即将推出。
Mar, 2024
本文概述了用于语义分割的深度网络无监督域适应的最新进展,并提供了清晰的分类。该文介绍了该问题的各种情况、不同水平上的适应策略、以及基于对抗学习、生成式、分类器差异性分析、自学习、熵最小化、课程学习和多任务学习等方法的文献综述。该文最后通过在自动驾驶情景下对各种方法的性能进行比较。
May, 2020
该工作提出了一种统一的深度感知无监督域自适应框架,通过在源领域中利用密集深度的多种补充方式,最大限度地利用了这种特权信息来训练 UDA 模型,从而提高了目标领域上训练的语义分割模型的性能,并在不同的具有挑战性的 synthetic-2-real 基准测试上实现了最先进的性能。
Apr, 2019
通过结合输入数据的时间和跨传感器的几何一致性和均值教师方法,我们引入了一种新颖的领域适应方法,称为 T-UDA(时间 UDA),该方法在驾驶场景的 3D 语义分割任务中取得了显著的性能提升。
Sep, 2023
本文提出了一种基于实例适应的自我训练框架,应用于语义分割的无监督域自适应问题,该方法采用了一种新的伪标签生成策略和区域引导正则化方法,以在 'GTA5 to Cityscapes' 和 'SYNTHIA to Cityscapes' 数据集上的任务中获得更好的性能表现。
Aug, 2020