基于文本引导的视觉基础模型的遥感图像语义分割
本研究介绍了一种用于自动化少样本语义分割的结构化框架,利用 Segment Anything Model(SAM)模型,并借助先前引导的掩模生成粗略像素级提示,以获得更高效的语义可辨别分割结果,实验证明该方法在 DLRSD 数据集上优于其他可用的少样本方法。
Nov, 2023
本文提出了一种基于 SAM 模型和 Prompt 学习的自动遥感图像实例分割方法(RSPrompter),并将其与其他常用的方法进行比较,结果证明该方法有效。
Jun, 2023
本研究旨在将 Meta AI 的创新图像分割模型 Segment Anything Model(SAM)应用于遥感图像分析领域,特别是处理来自不同地理背景的航空和轨道影像,实现 SAM 在遥感影像处理中的潜力。
Jun, 2023
通过对八个公开数据集的实证研究,揭示了参考表达理解 (REC) 框架在特定领域中存在的预测错误问题,并提出了一种简单的策略来减轻这些错误,进而改进了基于 REC 的检测和自动分割,同时报告了在多个专业领域中使用 SAM 技术进行分割的性能显著提高和节省注释时间。
Jun, 2024
引入地面 SAM,使用地面化 DINO 作为开放目标检测器并结合分段任何模型(SAM),实现基于任意文本输入的任何区域的检测和分割,并打开了连接各种视觉模型的大门。
Jan, 2024
该文通过第一次全面调查介绍了受到重大关注的 Meta AI Research 开发的 Segment anything model(SAM)的性能表现和多种应用情况,并呼吁读者对该模型进行新的研究以促进其进一步发展。
May, 2023
我们提出了一种新颖的方法来针对现有模型的泛化性能下降问题,将基础模型自适应于特定领域,如遥感图像。我们通过集成预训练的卷积神经网络作为提示生成器,为 Segment Anything Model 增加了识别能力,从而改善了其在遥感图像上的表现。通过在三个遥感数据集上评估我们的方法,包括 WHU Buildings 数据集、Massachusetts Buildings 数据集和 AICrowd Mapping Challenge 数据集,我们观察到我们的方法在不同分布的性能上取得了显著提高,并计划发布我们的代码库,以促进遥感领域对基础模型进行更多领域特定任务的探索。
Oct, 2023
通过采用大规模预训练模型、计算机视觉和 2D 任务,本研究提出了一种新的框架来解决 3D 点云分割任务,通过将 2D 语义分割预测投影到 3D 空间,并引入语义标签融合策略,实现了在扩展的数据集上的 3D 场景理解。
Nov, 2023
通过使用图像概念传达的视觉概念,本研究首次探索了使用基础模型进行开放世界理解的方法,提出了一种名为图像提示分割(IPSeg)的新方法,该方法利用了图像提示技术,通过提取强大的特征,并通过新颖的特征交互模块将输入图像的表示与提示图像的表示进行匹配,以生成突出显示输入图像中目标对象的点提示,并进一步利用生成的点提示来指导 Segment Anything Model 对输入图像中的目标对象进行分割,从而消除了繁琐的训练过程,提供更高效和可扩展的解决方案。
Oct, 2023
我们提出了一种基于视觉 - 语言表示学习的元数据协作多模态分割网络(MetaSegNet),该网络用于遥感图像的语义分割,并展示了卓越的泛化性能和与现有方法相竞争的准确性。
Dec, 2023