手绘辅助的激光雷达语义分割
本研究提出了一种名为 Scribble2Scene 的简单而有效的方法,通过将稀疏的涂鸦标注与密集的几何标签相结合,从而弥补了稀疏涂鸦标注和完全监督之间的差距,实现了语义场景的完整性,并通过几何感知自动标注器建立和在线模型训练来提高性能。
May, 2024
本文提出了使用散点图对图像进行注释,然后利用 SAM(一种基本模型)为图像生成语义分割标签。通过使用相机和 LiDAR 的内在和外在参数将图像的分割标签映射到 LiDAR 空间,我们获得了点云语义分割的标签,并发布了 Scatter-KITTI 和 Scatter-nuScenes,这是第一个利用基于图像分割的 SAM 进行弱监督点云语义分割的作品。此外,为了减小稀疏注释获取的错误伪标签对点云特征的影响,我们提出了一种用于 LiDAR 语义分割的多模态弱监督网络,称为 MM-ScatterNet。该网络通过引入多模态特征和点云特征之间的一致性约束,增强了点云的表示学习。在 SemanticKITTI 数据集上,我们仅使用 0.02%的注释数据就实现了 66%的全监督性能,在 NuScenes 数据集上,仅使用 0.1%的标记点就实现了 95%的全监督性能。
Apr, 2024
传统上,分割算法需要密集注释进行训练,特别是在 3D 医学图像领域,这需要大量的注释工作。我们提出了一个全面的涂鸦监督基准,包括七个使用不同的模态成像的解剖和病理学的数据集。利用部分损失,我们的方法能够在现有的分割方法中融入涂鸦标注,保持原始的损失公式,从而实现了当前最先进性能的一致表现。
Mar, 2024
利用涂鸦标注图片并开发了一种算法,将涂鸦作为监督信息来训练卷积网络的语义分割,并在 PASCAL VOC 数据集上获得较好结果。
Apr, 2016
本文提出了一种基于涂鸦标注的弱监督显著物体检测模型,通过辅助边缘检测任务和门控结构感知损失来改进涂鸦标注的边缘定位问题,同时使用基于结构的损失约束恢复结构的范围,并推出了一种衡量预测显著图的结构对齐度的新度量标准 —— 显著性结构度量。大量实验结果表明,该方法不仅优于现有的弱监督 / 无监督方法,而且与一些最先进的完全监督模型持平。
Mar, 2020
本文提出了一种基于草图的体积图像分割方法 Scribble2D5,在 2.5D UNet 中增加了标签传播模块,通过组合静态和主动边界预测来学习感兴趣区域的边界并规范其形状,从而改善了弱标注图像分割的结果。在三个公共数据集上的实验表明,Scribble2D5 显著优于当前的基于草图的方法,并接近完全监督方法的性能。
May, 2022
本文提出了 LaserMix 机制,利用 LiDAR 点云的强空间线索来更好地利用未标记的数据,实现 LiDAR 半监督分割,并在三个数据集上进行了全面的实验分析,结果表明 LaserMix 具有竞争性且有效。
Jun, 2022
通过使用卷积神经网络和激光雷达数据,本研究旨在提高图像分割的效率,特别是在自动驾驶系统中的道路表面分割任务中,通过减少标注工作量并在不降低分割质量的情况下训练图像分割模型。
Nov, 2023
用稀疏涂鸦监督的涂鸦增强方法进行基于弱监督语义分割,结合全局语义、类别信息和插值矫正,以及距离熵损失进行不确定性降低,实验证明该方法优于以往方法。
Feb, 2024
本文提出了一种基于稀疏深度可分离卷积模块的新型管道,该管道通过减少网络参数数量并保留整体任务性能,需要更少的地面真实注释来实现优越的分割准确性,并提出了一个新的用于处理 3D LiDAR 点云数据的样本下采样方法,与现有方法相比具有更好的性能,同时在有限的训练数据上也表现出显着的性能提高。
Mar, 2023