RemoteCLIP: 远程感知的视觉语言基础模型
本文提出了一种新的框架,包括领域基础模型(DFM),该模型缩小了通用基础模型(GFM)和特定领域下游任务之间的差距,并通过预训练的VLM将筛选后的遥感图像与英文描述进行配对,构成了第一个大规模遥感图像-文本匹配数据集。在该数据集上的实验结果表明,使用上述数据集和提出的DFM方法的零样本分类和视觉语言检索任务的性能都较好,并且RS Stable Diffusion模型的训练也取得了成功的结果。
Jun, 2023
大规模语言模型的出现显著推动了人工智能的快速发展,并引发了人工智能2.0的革命。远程感知领域对于开发专门针对数据分析的大规模视觉语言模型越来越感兴趣。然而,目前的研究主要集中在视觉识别任务上,缺乏对齐并适用于训练大规模视觉语言模型的全面、大规模图像-文本数据集,这对于有效训练此类模型构成了重大挑战。本研究构建了一个高质量的远程感知图像字幕数据集(RSICap),用于促进RS领域大规模视觉语言模型的发展。与以往通过模型生成的字幕或简短描述的数据集不同,RSICap包括2,585个人工注释的字幕,具备丰富和高质量的信息。该数据集为每个图像提供了详细的描述,包括场景描述(例如居住区、机场或农田)以及对象信息(例如颜色、形状、数量、绝对位置等)。为了促进在RS领域中对视觉语言模型的评估,我们还提供了一个基准评估数据集RSIEval,它包括人工注释的字幕和视觉问答对,可以全面评估在RS背景下的视觉语言模型。
Jul, 2023
我们提出了一种基于视觉语言模型训练遥感图像的方法,无需使用任何文本注释。我们的关键洞察力是使用地面上的互联网图像作为遥感图像和语言之间的中介。通过使用大量的配对互联网和卫星图像,我们训练了遥感图像的图像编码器与CLIP的图像编码器对齐。我们的无监督方法使得能够训练一种新型的大规模遥感图像视觉语言模型(VLM),适用于两种不同分辨率的遥感图像。我们展示了这些VLM在卫星图像的零样本、开放词汇的图像分类、检索、分割和视觉问答任务中的能力。我们的无需文本注释的VLM在这些任务的每个方面都优于现有有监督训练的VLM,分类任务上最高提升了20%,分割任务上提升了80%。
Dec, 2023
使用地理坐标将无标签的遥感图像与OpenStreetMap中的丰富语义相连接,构建了一套遥感图像的综合视觉-语言数据集SkyScript,包含260万个图像-文本对,覆盖29K个不同的语义标签。通过在此数据集上进行持续预训练,我们获得了一个视觉-语言模型,相较于基准模型,在七个基准数据集上实现了6.2%的平均准确率提升,并展示了对于细粒度对象属性分类和跨模态检索的零样本迁移能力。希望该数据集可以支持遥感领域中各种多模态任务的视觉-语言模型的进展,如开放词汇分类、检索、字幕生成和文本到图像合成。
Dec, 2023
SkyEyeGPT是一个针对远程感知视觉语言理解而设计的统一的多模态大型语言模型,通过对视觉特征与语言域的对齐以及使用LLM的RS解码器来预测远程感知开放式任务的答案,在RS视觉语言任务中表现出卓越的图像级和区域级任务结果。
Jan, 2024
本文解决了传统零样本场景分类中,遥感视觉-语言模型通过对大图像分割成小patch而忽略上下文信息的问题。我们提出了一种新方法,利用基于文本提示的初步预测和图像编码器的patch关联关系,以增强零样本分类的能力,实验结果显示在10个遥感数据集上相较于传统方法实现了显著的准确率提升。
Sep, 2024
本研究解决了遥感领域视觉-语言数据集不足的问题。通过引入图像解码机器学习模型,研究者能够无需人工标注收集约960万对视觉-语言数据集。结果表明,该模型在零样本分类、语义定位和图像-文本检索等下游任务中优于未使用公开数据集的对手,展示了显著的效能提升。
Sep, 2024
本研究解决了遥感领域视觉-语言任务中的多语种输入适应性不足的问题。通过探索多语种CLIP模型的微调以及基于对齐局部和全局表示的自监督方法,提出了一种新的视觉-语言模型,显著提高了多语种图像-文本检索和零样本图像分类的性能。最终,模型RS-M-CLIP在多项视觉-语言任务中取得了最先进的结果,显示了翻译数据的有效性。
Oct, 2024