无监督分割任何东西
通过将 Segment Anything Model (SAM) 的伪标签作为辅助来增强半监督医学图像分割的学习过程,能够显著提升现有的半监督框架在极为有限的标注图像情况下的性能。
Dec, 2023
UVOSAM 是一种新的无监督视频对象分割范例,利用 Segment Anything Model 和视频显著对象跟踪网络来生成显着前景对象的轨迹作为提示来对每一帧视频进行对象分割。实验结果显示,UVOSAM 显著优于当前基于标记方法的分割方法。
May, 2023
通过引入 Semantic-SAM,我们提出了一种通用的图像分割模型,能够以任意所需的细粒度对任何物体进行分割和识别,具备语义感知和细粒度丰富性,实验证明我们的模型成功实现了语义感知和细粒度丰富性。
Jul, 2023
使用 Segment Anything Model(SAM)结合 Class Activation Maps(CAM)生成更高质量的伪标签,用伪标签为特定类提供信号,选择相关的 mask 并用它们进行标注以产生一个更精确的伪标签,综合我们的方法提高了五种最先进的弱监督语义分割方法的平均伪标签交并比(mIoU)6.2%。
May, 2023
提供了一种在未标记数据上进行用户定义粒度层次的语义分割的方法,通过累积全局语义信息并学习映射函数,使得带有粒度调整的语义识别的 Segment Anything Model(SAM)能够用于像素级语义注释,实验结果在 PASCAL VOC 2012 和 COCO-80 数据集上分别比现有最先进方法的 mIoU 提高了 17.95% 和 5.17%。
Dec, 2023
本研究介绍了一种用于自动化少样本语义分割的结构化框架,利用 Segment Anything Model(SAM)模型,并借助先前引导的掩模生成粗略像素级提示,以获得更高效的语义可辨别分割结果,实验证明该方法在 DLRSD 数据集上优于其他可用的少样本方法。
Nov, 2023
本文提出了一种称为 PerSAM 的、无需训练的个性化方法,该方法首先通过位置先验定位目标概念,然后通过三种技术 - 目标引导注意力、目标语义提示和级联后处理在其他图像或视频中对其进行分割,有效地适应 SAM 的私人使用。此外,我们还提出了一种高效的单次微调变体,PerSAM-F,以缓解掩模的歧义。我们构建了一个新的分割数据集 PerSeg,并在具有竞争性的性能的视频对象分割上测试了我们的方法。
May, 2023
研究了针对视觉任务开发的第一个基础模型,称为 Segment Anything Model(SAM)。SAM 可以基于便宜的输入提示,如一个或多个点、边界框或掩码,在输入的图像中分割对象。作者在大量的视觉基准任务中研究了 SAM 的零样本图像分割准确性,并发现 SAM 通常实现了与目标任务上进行了训练的视觉模型类似或有时超过其识别精度。他们检查了 SAM 在多样化、广泛研究的基准任务集上的表现。然而,作者还研究了 SAM 在航空图像问题中的表现,他们发现虽然 SAM 在航空图像上通常表现良好,但在某些情况下由于航空图像和目标对象的独特特征而失败。
Apr, 2023
SAM 是用于图像分割的第一个通用基础模型,能以自动或手动提示的方式进行零 - shot 图像分割,并在不同的自然图像分割任务中取得了令人瞩目的成绩。但在医学图像分割方面仍然存在一定挑战,SAM 在某些情况下表现出色,但需要结合手动标注才能取得更好的表现。
Apr, 2023
这篇研究论文讨论了 Segment Anything Model 在各个领域的表现及其未来发展前景,并提供了有助于未来研究活动的洞见,以完成通用分割任务。
Apr, 2023