基于提示的免训练物体计数
不需要训练的前提下,本研究提出了一种直接的解决方案,通过利用预先存在的基础模型进行实例级分割,通过四项关键技术的结合,实现了性能的显著提升,与基于训练的方法相媲美。
Mar, 2024
利用文本到图像的潜在扩散模型 (LDMs),本研究介绍了一种无监督的排序方法,通过借助生成的计数数据,对任意类型的对象进行可靠计数,该方法优于其他无监督和少样本方法,不受特定对象类别计数数据的限制。
Mar, 2024
本研究探索了 Meta AI 发布的 Segment Anything 模型(SAM)在几个具有挑战性的任务中的应用,并发现对于小型和拥挤的对象而言,其在少样本目标计数方面表现不足,需要进一步微调。
Apr, 2023
基于检测的 PseCo 框架将 SAM 和 CLIP 结合起来,实现了对少样本和零样本的准确目标计数,通过点定位、分割和计数等步骤解决了效率和小物体区分等难题。
Nov, 2023
本文探讨了将 Segment Anything Model(SAM)应用于视频对象跟踪和分割任务的潜力,通过使用多种 prompt 和引入基于点的优化阶段,实现了在三个数据集上对比性能相当的视频对象 / 实例分割任务,该方法为基于 SAM 的后续应用赋予了跟踪能力。
Mar, 2024
本文提出了一种称为 PerSAM 的、无需训练的个性化方法,该方法首先通过位置先验定位目标概念,然后通过三种技术 - 目标引导注意力、目标语义提示和级联后处理在其他图像或视频中对其进行分割,有效地适应 SAM 的私人使用。此外,我们还提出了一种高效的单次微调变体,PerSAM-F,以缓解掩模的歧义。我们构建了一个新的分割数据集 PerSeg,并在具有竞争性的性能的视频对象分割上测试了我们的方法。
May, 2023
我们提出了一种无需训练的提示跟踪框架,将稀疏点和框跟踪相结合,采用交叉循环时空模块从多次交互中自适应地聚合引用信息,实现了在流行的 VOS 数据集上稳定的零样本视频分割结果,保持了性能和交互时间之间的良好权衡。
Jun, 2024
本文针对 Segment Anything Model(SAM)在医学图像分割领域的 zero-shot 泛化能力进行了研究,并发现模型对于不同数据集和提示的表现会有差异,通过提供适当的提示,如边界框,SAM 的性能显著提高。
Apr, 2023