基于子图分解的块注释:更好的语义分割图像注释
通过仅在稀疏像素位置提供标签,深度神经网络可以实现良好的语义分割性能,结合主动学习机制和高效注释策略可以大大减少标注成本,并在 CamVid,Cityscapes 和 PASCAL VOC 2012 数据集上进行了实验证明了相当可比的性能。
Apr, 2021
本研究探讨如何使用图像级别标注来进行语义分割,通过 Anh 和 Kwak 提出的方法从图像级别标注中生成像素级别标注,并提出了对 AffinityNet 的调整,以进行直接的语义分割。结果表明,生成的标签与原始数据集的性能相同,并且直接使用 AffinityNet 和 Random Walk 进行的语义分割质量接近于最佳完全监督方法。
Apr, 2019
通过对 11 种注释策略和 4 个数据集进行彻底的成本效益评估,我们得出结论:当注释时间有限时,准确地勾绘感兴趣的对象通常不是最佳方法,注释时间越多也是如此。在这种情况下,突出显示的注释方法是(1)具有少量顶点的基于多边形的注释,以及(2)与 “Segment Anything Model(SAM)” 结合的框注释。在有无限注释时间的情况下,精确的注释仍然会导致最高的分割模型性能。
Dec, 2023
本文提出了一种半弱监督分割算法,基于新的深度监督学习方法和学生 - 教师模型,结合各种监督信号以实现易于集成,有效地减少了昂贵标注的要求。经过实验验证,该算法在视网膜液体分割上取得了成功。
Apr, 2021
本文提出了一个像素级聚类框架,用于将图像分割成区域,而无需使用地面真值标注。该框架包括特征嵌入模块、特征统计计算模块、图像重建和超像素分割,以实现准确的无监督分割。此外,我们提出了一种训练策略,利用每个超像素内部一致性、相邻超像素间的相似性 / 差异性和图像结构相似性。我们还提出了一种后处理方法,以避免由基于超像素的损失引起的过分分割。最后,我们扩展了所提方法用于无监督语义分割。通过在三个公开数据集上进行实验,我们证明了所提框架的有效性。实验结果表明,所提框架优于先前的最先进方法。
Oct, 2023
我们提出了一种使用边界框注释的主动学习框架,用于细胞分割,大大降低了数据注释成本。通过将 YOLOv8 检测器与 Segment Anything Model (SAM) 相结合,我们生成了一个箱子监督学习方法(称为 YOLO-SAM),有效降低了数据注释的复杂性。此外,它还集成到一个主动学习框架中,使用 MC DropBlock 方法以较少的框注释样本来训练分割模型。广泛的实验证明,与遮罩监督深度学习方法相比,我们的模型节省了超过 90%的数据注释时间。
May, 2024
本研究利用同时使用 MRI 图像中的像素级注释和图像级注释,提出了一个学习框架,用于大脑肿瘤的分割模型,并研究了像素级注释和图像级注释的比较量对分割质量的影响,并将我们的方法与传统的全监督方法进行比较,并展示了我们的方法在分割质量方面的优势。
Nov, 2019
本研究基于半监督度量学习方法,提出了四种对应关系来捕捉低 - level 图像相似性、语义标注、共现和特征亲和力。这些节点可以从任何部分注释的训练图像中以数据驱动的方式进行学习,因此,该模型不仅适用于弱监督分割中标记的像素,还适用于未标记的像素。
May, 2021
提供了一种在未标记数据上进行用户定义粒度层次的语义分割的方法,通过累积全局语义信息并学习映射函数,使得带有粒度调整的语义识别的 Segment Anything Model(SAM)能够用于像素级语义注释,实验结果在 PASCAL VOC 2012 和 COCO-80 数据集上分别比现有最先进方法的 mIoU 提高了 17.95% 和 5.17%。
Dec, 2023