基于擦痕标注的高效语义场景补全
本研究提出使用涂鸦来注释 LiDAR 点云,并发布 ScribbleKITTI,这是第一个用于 LiDAR 语义分割的涂鸦注释数据集。此外,我们提出了一个流程来减少使用此类弱标注时出现的性能差距。我们的涂鸦注释和代码可在 github.com/ouenal/scribblekitti 上获取。
Mar, 2022
本文提出了一种基于几何学的策略来将深度信息与低分辨率体素表示相结合,通过 3D 素描感知特征嵌入编码几何信息并采用半监督先验学习策略来引导占用推理和语义标签的推断,该方案在三个公共基准测试中一致优于现有技术。
Mar, 2020
利用涂鸦标注图片并开发了一种算法,将涂鸦作为监督信息来训练卷积网络的语义分割,并在 PASCAL VOC 数据集上获得较好结果。
Apr, 2016
用稀疏涂鸦监督的涂鸦增强方法进行基于弱监督语义分割,结合全局语义、类别信息和插值矫正,以及距离熵损失进行不确定性降低,实验证明该方法优于以往方法。
Feb, 2024
使用密集 - 稀疏 - 密集的设计,采用几何先验和占据信息,从语义感知和占据感知种子体素中扩散语义,实现基于相机的语义场景完成 (SSC) 框架。在 SemanticKITTI 数据集上的实验结果表明,该方法优于现有的最先进方法。
Dec, 2023
传统上,分割算法需要密集注释进行训练,特别是在 3D 医学图像领域,这需要大量的注释工作。我们提出了一个全面的涂鸦监督基准,包括七个使用不同的模态成像的解剖和病理学的数据集。利用部分损失,我们的方法能够在现有的分割方法中融入涂鸦标注,保持原始的损失公式,从而实现了当前最先进性能的一致表现。
Mar, 2024
本文提出了一种基于涂鸦标注的弱监督显著物体检测模型,通过辅助边缘检测任务和门控结构感知损失来改进涂鸦标注的边缘定位问题,同时使用基于结构的损失约束恢复结构的范围,并推出了一种衡量预测显著图的结构对齐度的新度量标准 —— 显著性结构度量。大量实验结果表明,该方法不仅优于现有的弱监督 / 无监督方法,而且与一些最先进的完全监督模型持平。
Mar, 2020
本文提出了使用手绘标注直接进行语义分割的方法,通过最小化熵和网络嵌入的随机游走等全局操作来降低不确定性,在神经网络特征空间上进行自监督训练以保持预测的一致性,在随机缩小或丢弃 scribbles 的情况下也能获得上乘的效果。
Feb, 2021
本文提出了一种基于草图的体积图像分割方法 Scribble2D5,在 2.5D UNet 中增加了标签传播模块,通过组合静态和主动边界预测来学习感兴趣区域的边界并规范其形状,从而改善了弱标注图像分割的结果。在三个公共数据集上的实验表明,Scribble2D5 显著优于当前的基于草图的方法,并接近完全监督方法的性能。
May, 2022
本文针对通过单视图深度图来获取场景的完整三维体素表示和语义标签的语义场景完成任务,提出了一种端到端三维卷积神经网络 SSCNet,该网络能够同时输出所有摄像机视图锥体中体素的占用和语义标签。SSCNet 使用基于扩张的三维上下文模块来高效地扩展感受野并进行三维上下文学习。实验结果表明,该联合模型比各自解决每个任务的方法表现更好,并且在语义场景完成任务上优于替代方法。
Nov, 2016