SamLP: 一个定制的切片任意物体模型用于车牌检测
本研究旨在将基础模型的能力发挥在 3D 视觉任务中,在通过 SAM 提出的 BEV 流程管道构建的基础上,通过提高零样例能力实现 3D 物体检测,将其应用于 Waymo 开放数据集,展示其可行性。
Jun, 2023
该文通过第一次全面调查介绍了受到重大关注的 Meta AI Research 开发的 Segment anything model(SAM)的性能表现和多种应用情况,并呼吁读者对该模型进行新的研究以促进其进一步发展。
May, 2023
基于深度学习中内在的低秩结构,我们提出了一种创新的方法,通过自适应微调 Segment Anything Model (SAM) 来实现显著目标检测,通过在五个具有挑战性的 RGB 基准数据集上进行全面的定性和定量评估,证明了我们方法的卓越性能,超越了最先进的方法。
Aug, 2023
SAM-G 通过利用 Segment Anything Model (SAM) 的分割能力,结合 DINOv2 和 SAM 的图像特征,为视觉强化学习代理提供高质量的遮罩图像,显著改善了视觉泛化能力,并在 DMControl 和 Adroit 任务中相对于现有方法分别实现了 44% 和 29% 的改进。
Dec, 2023
本研究旨在无缝地将 Segment Anything Model (SAM) 与开放词汇目标检测器集成在一起,引入了 SideFormer 模块和开放区域建议网络 (Open-set RPN) 等创新方法,以提升 SAM 在检测任意对象和开放词汇识别方面的性能。Sambor 在 COCO 和 LVIS 等基准测试中展现出卓越的零样本性能,并与之前的最先进方法竞争力十足,旨在为 SAM 赋予识别多样化对象类别和促进视觉基础模型的开放词汇学习提供有意义的努力。
Dec, 2023
本文提出了一种称为 PerSAM 的、无需训练的个性化方法,该方法首先通过位置先验定位目标概念,然后通过三种技术 - 目标引导注意力、目标语义提示和级联后处理在其他图像或视频中对其进行分割,有效地适应 SAM 的私人使用。此外,我们还提出了一种高效的单次微调变体,PerSAM-F,以缓解掩模的歧义。我们构建了一个新的分割数据集 PerSeg,并在具有竞争性的性能的视频对象分割上测试了我们的方法。
May, 2023
对于自动分割医学图像的研究,本文总结了目前的微调策略,并在包括所有常见放射学模态的 17 个数据集上进行评估,研究发现微调 Segment Anything Model (SAM) 相较于以前的分割方法具有稍微更好的性能,使用参数效率高的学习在编码器和解码器中进行微调的策略优于其他策略,网络架构对最终性能影响不大,通过自监督学习进一步训练 SAM 可以提高最终模型性能。
Apr, 2024
Segment Anything Model (SAM) 是第一个用于图像分割的基础模型,本研究评估了 SAM 在虚拟现实环境下记录的眼部图像中分割特征的能力。结果表明,SAM 的分割效果可以与专门模型相媲美,且使用提示工具可以提高其性能,示例数据集中瞳孔分割的 IoU 达到 93.34%。SAM 等基础模型有望通过快速且易用的图像分割方法,革新注视估计领域,减少对专门模型和繁琐手动标注的依赖。
Nov, 2023
该研究综述了近年来提出的一种称为 SAM 的基础模型,对其的应用于图像处理的各种任务和数据类型进行了分析和总结,并指出了其优点和局限性,为开发更多功能的基础模型和改善 SAM 架构提供了启示。
May, 2023