SSR:SAM 是用于领域适应语义分割的强正则化方法
由于高分辨率遥感卫星的发展,遥感相关研究工作获得了极大的便利。SAM 引入了一种普适的预训练模型用于图像分割任务,但是直接应用于遥感图像分割任务效果欠佳。为此,我们提出了 RSAM-Seg,即在 SAM 的基础上进行了适应性修改,消除了对手动干预提供提示的需求。在 SAM 的编码器部分的多头注意力块中,我们提出了 Adapter-Scale 和 Adapter-Feature 模块,它们旨在将高频图像信息和图像嵌入特征融入生成的图像引导提示中。在包括云检测、场地监测、建筑物检测和道路制图任务的四个不同遥感场景上进行了实验证明,RSAM-Seg 不仅改善了原始 SAM 和 U-Net 在云、建筑物、场地和道路场景中的效果,还突出了其作为辅助注释方法的潜力,可以识别某些数据集的真实值中的缺失区域。此外,在少样本情况下的表现也值得称赞,凸显了其在处理有限数据集时的潜力。
Feb, 2024
自主域自适应方法对目标域训练数据稀缺和注释成本高的机器人应用领域尤为重要。我们提出了一种自我监督的域自适应方法,适用于仅有标注源领域数据但目标领域数据完全无标注的情景,并且我们使用了分割基础模型(Segment Anything Model)来获得未标注数据的部分信息,利用无监督局部特征学习的最新进展,提出了一种对目标域中检测到的分割区域进行正则化特征表示的不变性方差损失结构。关键是,这种损失结构和网络架构可以处理由 Segment Anything 生成的重叠分割区域和过分割问题。我们在具有挑战性的 YCB-Video 和 HomebrewedDB 数据集上展示了我们方法的优势,并显示出它优于之前的方法,甚至优于使用真实注释进行训练的网络(在 YCB-Video 上)。
Sep, 2023
本论文针对计算机视觉中处理高分辨率输入带来的高昂计算代价提出了使用基于 CNN 检测器结合实例分割进行图像分割的替代方案,实验结果表明该方法仅使用 SAM 作者发布的 1/50 数据集,便可在 50 倍的运行时速下实现与 SAM 方法基本相当的性能。
Jun, 2023
使用 Segment Anything Model(SAM)结合 Class Activation Maps(CAM)生成更高质量的伪标签,用伪标签为特定类提供信号,选择相关的 mask 并用它们进行标注以产生一个更精确的伪标签,综合我们的方法提高了五种最先进的弱监督语义分割方法的平均伪标签交并比(mIoU)6.2%。
May, 2023
基于大规模 Transformer 模型的 SAM 模型制约了其在广泛现实应用中的计算成本。为解决这个问题,我们提出了轻量级 SAM 模型 EfficientSAMs,借助图像预训练方法 SAMI,通过 SAM 图像编码器重建特征进行视觉表征学习,并在 SA-1B 上微调模型,实现对图像分类、对象检测、实例分割和语义对象检测等多个视觉任务的评估。结果显示,SAMI 方法在面向零样本实例分割等任务上,我们的 EfficientSAMs 表现优于其他快速 SAM 模型,达到显著增益(例如,在 COCO/LVIS 上的 AP 提高了约 4 个点)。
Dec, 2023
通过将可视化基础模型 Segment Anything(SAM)注入到隐式神经场模型 - INF 中,我们提出了一种新的多视图遥感图像分割方法,通过对测试视图和训练视图之间的 SAM 特征进行对比,得出每个测试视图的伪标签,从而增强整个场景的标注信息,实验证明我们的方法在有限的训练数据情况下优于主流方法,从而证实了 SAM 作为 INF 的一种补充在这一任务中的有效性。
May, 2024
我们提出了 SAM-Road,它是 Segment Anything Model(SAM)的一种适应性方法,用于从卫星图像中提取大规模的矢量化道路网络图。我们通过将图形几何形式化为密集语义分割任务,利用 SAM 的固有优势来预测图形几何,SAM 的图像编码器经过微调,产生用于道路和交叉口的概率掩码,通过简单的非最大抑制来提取图形顶点。为了预测图形拓扑,我们设计了一种轻量级的基于 Transformer 的图神经网络,它利用 SAM 图像嵌入来估计顶点之间边存在的概率。我们的方法可以直接预测覆盖数平方公里的大区域的图形顶点和边,无需昂贵和复杂的后处理启发式方法,并且能够在几秒钟内构建完整的道路网络图。通过其简单、直接和极简主义的设计,SAM-Road 在城市规模数据集上实现了与 RNGDet++ 等最先进方法相当的准确性,同时运行速度提高了 40 倍。因此,我们展示了将基础视觉模型应用于图学习任务时的强大能力。该代码可在此 URL 上找到。
Mar, 2024
提出了一种方法,能够高效地为 Segment Anything Model (SAM) 添加生成区域描述的功能,并且通过引入轻量级的基于查询的特征混合器使区域特征与语言模型的嵌入空间对齐,以便进行后续的描述生成。该方法具有小的可训练参数数量,计算量少、内存使用少和通信带宽少的特点,因此训练速度快且可扩展。通过先在目标检测和分割任务上进行弱监督预训练以解决区域描述数据稀缺问题。该方法的优越性得到了广泛的实验证明,并对每个设计选择进行了验证。本研究在扩展区域描述数据和探索为 SAM 增加区域语义方面具有重要意义。
Dec, 2023
在计算机视觉中,自监督对比学习通过使同一图像的不同视图具有类似的表示来实现。我们提出了 SAMCLR,它是 SimCLR 的一个附加部分,使用 SAM 将图像分割成语义区域,然后从同一区域采样两个视图。初步结果表明,在 Cityscapes 和 ADE20K 上进行预训练,然后在 CIFAR-10、STL10 和 ImageNette 上进行分类评估时,SAMCLR 不仅与 SimCLR、DINO 和 MoCo 相当,而且往往明显优于它们。
Oct, 2023
SAMFeat 通过引入 SAM(segment anything model)作为教师模型,利用像素级对齐关系和语义信息,改进本地特征描述和检测的性能,展现了在不同任务中的优越性能。
Sep, 2023