WeClick: 使用点击标注进行弱监督视频语义分割
本文提出了 ClickSeg,一种新颖的基于点击级弱监督的 3D 实例分割方法,仅需要每个实例的一个点注释;通过提出基线弱监督训练方法和新的训练框架,使用 k-means 和固定初始种子进行聚类,实验证明 ClickSeg 在 ScanNetV2 和 S3DIS 数据集上的结果优于之前最佳的弱监督实例分割方法,并且在 0.02% 的监督信号下,准确率达到了完全监督对应方法的约 90%;同时,在相同注释设置下,也实现了弱监督方法中最先进的语义分割结果。
Jul, 2023
本文提出一种基于图像级别类别标签的弱监督语义分割算法,利用 Web 存储库中有关目标类别标签的视频检索并从检索到的视频中生成分割标签以模拟语义分割的强监督,该算法明显优于现有的同等监督方法,甚至与依赖额外标注方法的方法一样有竞争力。
Jan, 2017
本文提出使用 click-level annotations 进行 semantic segmentation 的新学习范式 ——seminar learning,并在该基础上建立了 teacher-student 和 student-student 模块,使用异构伪标签来增强各个模块彼此之间的表现,实验结果表明,该模型表现优秀,mIOU 可达 72.51%,并且在 Pascal VOC 2012 数据集上的表现超过先前的方法高出多达 16.88%。
Aug, 2021
本文提出了一种通过点击目标物体的中心点来标注边界框的标注方法,结合现有的弱监督目标定位技术,可在所有训练图像上联合定位目标边界框,与传统手动标注方法类似的定位出高质量目标检测器,标注时间可减少 9-18 倍。
Apr, 2017
提出了一种基于交互式分割的语义多样性分割网络 PiClick,利用 Transformer 网络结构实现互动式 mask 查询,设计了 Target Reasoning 模块,能够自动推断出所有建议中最匹配的 mask,显著减少了目标模糊性以及额外人工干预。
Apr, 2023
本文提出了一种无需修改分割训练过程的弱监督训练方法,通过精心设计给定边界框的输入标签,经过单一训练循环即可达到先前算法的弱监督结果并能够抵达完全监督模型的约 95% 的语义标注和实例分割质量。
Mar, 2016
本文提出了一种基于多模态交互模块的小样本物体分割方法,该方法利用视觉和词嵌入的协同注意机制,使用图像级标签在 PASCAL-5i 数据集上实现了 4.8% 的提高,并在 YouTube-VOS 数据集上展示了 TOSFL 实验的实例级和类别级结果。
Jan, 2020
本文提出了基于新型弱标注的视频显著目标检测模型,并使用外观运动融合模块和双向 ConvLSTM 框架来实现有效的多模态学习和长期时序建模,还设计了一种前景背景相似度损失和一种弱标注增强策略,以提高模型性能和伪标签生成技术。在六个基准视频显著性检测数据集上的实验结果证明了我们方案的有效性。
Apr, 2021
本文介绍一种基于人工交互的视频对象分割方法,使用深度学习技术进行交互式图像分割,并应用于视频对象分割中。在 GrabCut 数据集上,我们的方法以仅需 3.8 次点击的平均值获得 90%的 IOU,与当前最先进的方法相比,具有更高的准确性。此外,我们研究了用户的使用模式和提供的纠正类型等,为进一步改进交互式视频分割提供重要的见解。
Dec, 2017
本文提出一个名为 PseudoClick 的框架,使得现有的分割网络能够提出候选的下一步点击,从而进一步减少用户交互成本,该框架的目标是通过最少的用户点击来获得精确的对象分割掩码。
Jul, 2022