在没有人工标注的情况下推动视觉-语言模型在遥感中的极限
RemoteCLIP是第一个用于遥感领域的视觉-语言基础模型,利用数据扩充和转换方法进行预训练,可用于零样本分类、图像文本检索和物体计数等任务,并在16个数据集上均优于基线模型。
Jun, 2023
本文提出了一种新的框架,包括领域基础模型(DFM),该模型缩小了通用基础模型(GFM)和特定领域下游任务之间的差距,并通过预训练的VLM将筛选后的遥感图像与英文描述进行配对,构成了第一个大规模遥感图像-文本匹配数据集。在该数据集上的实验结果表明,使用上述数据集和提出的DFM方法的零样本分类和视觉语言检索任务的性能都较好,并且RS Stable Diffusion模型的训练也取得了成功的结果。
Jun, 2023
大规模语言模型的出现显著推动了人工智能的快速发展,并引发了人工智能2.0的革命。远程感知领域对于开发专门针对数据分析的大规模视觉语言模型越来越感兴趣。然而,目前的研究主要集中在视觉识别任务上,缺乏对齐并适用于训练大规模视觉语言模型的全面、大规模图像-文本数据集,这对于有效训练此类模型构成了重大挑战。本研究构建了一个高质量的远程感知图像字幕数据集(RSICap),用于促进RS领域大规模视觉语言模型的发展。与以往通过模型生成的字幕或简短描述的数据集不同,RSICap包括2,585个人工注释的字幕,具备丰富和高质量的信息。该数据集为每个图像提供了详细的描述,包括场景描述(例如居住区、机场或农田)以及对象信息(例如颜色、形状、数量、绝对位置等)。为了促进在RS领域中对视觉语言模型的评估,我们还提供了一个基准评估数据集RSIEval,它包括人工注释的字幕和视觉问答对,可以全面评估在RS背景下的视觉语言模型。
Jul, 2023
我们提出了一种基于视觉语言模型训练遥感图像的方法,无需使用任何文本注释。我们的关键洞察力是使用地面上的互联网图像作为遥感图像和语言之间的中介。通过使用大量的配对互联网和卫星图像,我们训练了遥感图像的图像编码器与CLIP的图像编码器对齐。我们的无监督方法使得能够训练一种新型的大规模遥感图像视觉语言模型(VLM),适用于两种不同分辨率的遥感图像。我们展示了这些VLM在卫星图像的零样本、开放词汇的图像分类、检索、分割和视觉问答任务中的能力。我们的无需文本注释的VLM在这些任务的每个方面都优于现有有监督训练的VLM,分类任务上最高提升了20%,分割任务上提升了80%。
Dec, 2023
使用地理坐标将无标签的遥感图像与OpenStreetMap中的丰富语义相连接,构建了一套遥感图像的综合视觉-语言数据集SkyScript,包含260万个图像-文本对,覆盖29K个不同的语义标签。通过在此数据集上进行持续预训练,我们获得了一个视觉-语言模型,相较于基准模型,在七个基准数据集上实现了6.2%的平均准确率提升,并展示了对于细粒度对象属性分类和跨模态检索的零样本迁移能力。希望该数据集可以支持遥感领域中各种多模态任务的视觉-语言模型的进展,如开放词汇分类、检索、字幕生成和文本到图像合成。
Dec, 2023
SkyEyeGPT是一个针对远程感知视觉语言理解而设计的统一的多模态大型语言模型,通过对视觉特征与语言域的对齐以及使用LLM的RS解码器来预测远程感知开放式任务的答案,在RS视觉语言任务中表现出卓越的图像级和区域级任务结果。
Jan, 2024
本研究提出了RS-CapRet,一种远程感知任务的视觉和语言方法,主要用于图像字幕生成和文本-图像检索。通过对远程感知图像进行对比性语言-图像预训练,我们将高性能大型解码器语言模型与适应远程感知图像的图像编码器结合使用。RS-CapRet能够为远程感知图像生成描述,并能够根据文本描述检索图像,以实现与现有方法相媲美的性能。定性结果表明,RS-CapRet能够有效利用预训练的大型语言模型描述远程感知图像,并能够处理图像和文本的交错序列对话。
Feb, 2024
本文解决了传统零样本场景分类中,遥感视觉-语言模型通过对大图像分割成小patch而忽略上下文信息的问题。我们提出了一种新方法,利用基于文本提示的初步预测和图像编码器的patch关联关系,以增强零样本分类的能力,实验结果显示在10个遥感数据集上相较于传统方法实现了显著的准确率提升。
Sep, 2024