CoSMix:3D LiDAR 分割中的组合语义混合领域自适应
通过语义和几何样本混合,该研究介绍了一种基于点云的无监督领域自适应技术,并采用合成到真实和真实到真实的情境,利用 LiDAR 数据集验证其在无监督和半监督设置中明显优于现有方法的性能。
Aug, 2023
提出了一种半监督领域自适应方法,名为 “SSDA3D”,包括两个阶段的 Point-CutMix 模块和 Intra-domain Generalization,很好地解决了不同 LiDAR 配置、城市和天气等领域间偏移问题,不依赖于大量标注数据,在只有 10%目标数据标注的情况下,可以超过 100%目标标签的完全监督模型。
Dec, 2022
提出了一种名为 UniMix 的通用方法,通过有效减小领域差异,使 LSS 模型能够学习天气稳健和领域不变的表示,实现自动驾驶中对不同天气条件下的全面适应性。
Apr, 2024
本文提出一种新的上下文感知混合框架(CAMix),用于域自适应语义分割,通过引入上下文相关性作为显式先验知识,以完全端到端的可训练方式增强了对目标域的适应性,并在三个不同的水平上引导上下文感知域组合。
Aug, 2021
提出了一种名为 LIDAPS 的新型模型,通过 IMix 策略实现了实例级的域适应,提高了全景质量,并利用 CLIP-based domain alignment (CDA) 方法来解决语义性能下降的问题,在流行的全景无监督域适应基准测试中取得了最先进的结果。
Apr, 2024
本文提出了 LaserMix 机制,利用 LiDAR 点云的强空间线索来更好地利用未标记的数据,实现 LiDAR 半监督分割,并在三个数据集上进行了全面的实验分析,结果表明 LaserMix 具有竞争性且有效。
Jun, 2022
通过使用大规模廉价粗糙标签和少量准确标签进行混合粒度监督,我们提出了 MixSup,一种更实用的方法来同时利用经济实惠的粗糙标签和有限数量的准确标签来进行基于 LiDAR 的高效标签的 3D 物体检测。
Jan, 2024
在自动驾驶中,高效利用数据对于推进 3D 场景理解至关重要。我们的研究在 LiDAR 语义分割上扩展了半监督学习,利用行驶场景的内在空间先验和多传感器互补来增强无标注数据集的有效性。我们引入了 LaserMix++,这是一个进化的框架,结合了来自不同 LiDAR 扫描的激光束操作,并结合了 LiDAR - 相机对应关系,进一步辅助高效学习。我们的框架旨在通过整合多模态(包括:1)用于细粒度交叉传感器相互作用的多模态 LaserMix 操作;2)增强 LiDAR 特征学习的相机到 LiDAR 特征提炼;和 3)使用开放词汇模型生成辅助监督的语言驱动知识引导)来增强 3D 场景一致性正则化。LaserMix++ 的多功能性使其适用于 LiDAR 表示的各种应用,确立了其作为一种普遍适用的解决方案。通过理论分析和对流行驾驶感知数据集的广泛实验,我们对我们的框架进行了严格验证。结果显示,LaserMix++ 明显优于完全监督的替代方案,在只使用五分之一的注释数据的情况下实现了可比较的准确性,并显著改善了仅使用监督的基准线。这一重大进展突显了半监督方法在减少对标记数据的依赖方面对基于 LiDAR 的 3D 场景理解系统的潜力。
May, 2024
应用 Stochastic Compound Mixing 方法进行开放式复合领域适应,通过降低源域与混合目标域之间的差异来改善模型泛化性能,这种方法在 OCDA 语义分割任务上实现了更低的经验风险,并与 SoTA 结果相比有显着的性能提升。
May, 2024
该研究提出一种基于双层域混合的半监督领域自适应框架,结合数据混合方法和知识蒸馏,通过给定少量标记的数据和大量标记的源数据来减少域间差异,并在自我训练中生成伪标签。实验证明该框架在合成到实际语义分割基准中表现出有效性。
Mar, 2021