SAM 在隐蔽场景中的挣扎 —— 基于 “分割任何东西” 的实证研究
通过使用简单而有效的适配器将特定领域信息或视觉提示集成到分割网络中,我们的实验表明,SAM-Adapter 可以显着提高 SAM 在具有挑战性的任务中的性能,并且在我们测试的任务中甚至可以胜过专门的网络模型,并达到最先进的性能:伪装目标检测和阴影检测。
Apr, 2023
这篇研究论文讨论了 Segment Anything Model 在各个领域的表现及其未来发展前景,并提供了有助于未来研究活动的洞见,以完成通用分割任务。
Apr, 2023
本文研究了最近发布的 Meta AI Research 的分割模型 SAM 在伪装目标检测任务上的性能,对比了其他 22 种伪装目标检测方法的表现,并提出了构建更强大的 SAM 解决伪装目标检测任务的进一步研究机会。
Apr, 2023
对 Segment Anything Model 模型进行了全面的鲁棒性研究,发现它在面对多种图像扰动时的性能普遍下降,在特定数据集上定制提示技巧和利用领域知识,可以提高模型的弹性和解决数据集特定的挑战,为实际应用提供更健壮和多功能的图像分割解决方案。
May, 2023
研究了针对视觉任务开发的第一个基础模型,称为 Segment Anything Model(SAM)。SAM 可以基于便宜的输入提示,如一个或多个点、边界框或掩码,在输入的图像中分割对象。作者在大量的视觉基准任务中研究了 SAM 的零样本图像分割准确性,并发现 SAM 通常实现了与目标任务上进行了训练的视觉模型类似或有时超过其识别精度。他们检查了 SAM 在多样化、广泛研究的基准任务集上的表现。然而,作者还研究了 SAM 在航空图像问题中的表现,他们发现虽然 SAM 在航空图像上通常表现良好,但在某些情况下由于航空图像和目标对象的独特特征而失败。
Apr, 2023
Meta AI Research 发布了基于超过 10 亿掩模的大型分割数据集训练的 SAM 模型,尽管 SAM 在诸多领域具备强大的能力,但我们的经验评估表明该模型存在在透明物体场景中无法检测的问题。特别是在含有各种形式的玻璃的安全关键情况下,部署 SAM 可能存在风险。
Apr, 2023
通过输入「Segment Anything Model」(SAM)的简单提示框,并将 SAM 的结果输出作为 IS5Net 的输入,可以极大地提高高精度的二元图像分割的效果。
Dec, 2023
基于 Segment Anything Model(SAM)的语义分割模型在机器人手术领域的鲁棒性、零样本泛化性能等方面进行了实证研究,发现 SAM 在使用边界框提示时表现出卓越的零样本泛化能力,但在点提示和未提示设置下,对仪器的整体分割困难重重,且在复杂手术场景中无法识别仪器且容易受到各种数据破坏形式的影响。提出的 Low-rank Adaptation(LoRA)调整方法结合 SAM,形成 SurgicalSAM 在不使用提示的情况下可以对各个类别的仪器进行遮罩预测,从而说明 SAM 在手术任务中仍需要进一步的专业领域微调。
Aug, 2023
该文通过第一次全面调查介绍了受到重大关注的 Meta AI Research 开发的 Segment anything model(SAM)的性能表现和多种应用情况,并呼吁读者对该模型进行新的研究以促进其进一步发展。
May, 2023
该研究综述了近年来提出的一种称为 SAM 的基础模型,对其的应用于图像处理的各种任务和数据类型进行了分析和总结,并指出了其优点和局限性,为开发更多功能的基础模型和改善 SAM 架构提供了启示。
May, 2023