SkySenseGPT:用于遥感视觉语言理解的细粒度指令调整数据集和模型
本文提出了一种新的框架,包括领域基础模型(DFM),该模型缩小了通用基础模型(GFM)和特定领域下游任务之间的差距,并通过预训练的VLM将筛选后的遥感图像与英文描述进行配对,构成了第一个大规模遥感图像-文本匹配数据集。在该数据集上的实验结果表明,使用上述数据集和提出的DFM方法的零样本分类和视觉语言检索任务的性能都较好,并且RS Stable Diffusion模型的训练也取得了成功的结果。
Jun, 2023
大规模语言模型的出现显著推动了人工智能的快速发展,并引发了人工智能2.0的革命。远程感知领域对于开发专门针对数据分析的大规模视觉语言模型越来越感兴趣。然而,目前的研究主要集中在视觉识别任务上,缺乏对齐并适用于训练大规模视觉语言模型的全面、大规模图像-文本数据集,这对于有效训练此类模型构成了重大挑战。本研究构建了一个高质量的远程感知图像字幕数据集(RSICap),用于促进RS领域大规模视觉语言模型的发展。与以往通过模型生成的字幕或简短描述的数据集不同,RSICap包括2,585个人工注释的字幕,具备丰富和高质量的信息。该数据集为每个图像提供了详细的描述,包括场景描述(例如居住区、机场或农田)以及对象信息(例如颜色、形状、数量、绝对位置等)。为了促进在RS领域中对视觉语言模型的评估,我们还提供了一个基准评估数据集RSIEval,它包括人工注释的字幕和视觉问答对,可以全面评估在RS背景下的视觉语言模型。
Jul, 2023
SkySense是目前最大的多模态遥感基础模型,通过多种模态的时空序列输入,采用Multi-Granularity Contrastive Learning和Geo-Context Prototype Learning进行预训练学习,能灵活结合或单独使用其模块以适应各种任务,并在16个数据集上的7个任务中表现出了卓越的泛化能力,超过了18个最新的遥感基础模型。
Dec, 2023
使用地理坐标将无标签的遥感图像与OpenStreetMap中的丰富语义相连接,构建了一套遥感图像的综合视觉-语言数据集SkyScript,包含260万个图像-文本对,覆盖29K个不同的语义标签。通过在此数据集上进行持续预训练,我们获得了一个视觉-语言模型,相较于基准模型,在七个基准数据集上实现了6.2%的平均准确率提升,并展示了对于细粒度对象属性分类和跨模态检索的零样本迁移能力。希望该数据集可以支持遥感领域中各种多模态任务的视觉-语言模型的进展,如开放词汇分类、检索、字幕生成和文本到图像合成。
Dec, 2023
远程感知 ChatGPT 是一个利用 ChatGPT 连接各种基于人工智能的遥感模型来解决复杂解释任务的大型语言模型。
Jan, 2024
SkyEyeGPT是一个针对远程感知视觉语言理解而设计的统一的多模态大型语言模型,通过对视觉特征与语言域的对齐以及使用LLM的RS解码器来预测远程感知开放式任务的答案,在RS视觉语言任务中表现出卓越的图像级和区域级任务结果。
Jan, 2024
提出了一个先驱性的多模态大型语言模型(MLLM)EarthGPT,该模型集成了各种多传感器遥感图像解释任务,通过构建大规模的多传感器多模态遥感指令追踪数据集MMRS,解决了MLLM在遥感领域缺乏专业知识的问题,并在各种遥感图像解释任务上展现出其卓越的性能,并为开放式推理任务提供了一种多功能的范例。
Jan, 2024
远程传感图像智能理解模型正在经历一个深刻的新范式转变,即从学习域模型的范式转变为先学习预训练的通用基础模型,然后再进行自适应域模型的范式。在新的自适应域模型范式下,过去十年中已取得远程传感图像智能理解进展的旧数据集不再适用于全新任务。我们认为必须设计一个具备以下特征的新数据集来轻化任务:1)泛化性:训练模型学习多个任务之间的共享知识,并适应不同的任务;2)理解复杂场景:训练模型理解感兴趣对象的细粒度属性,并能用自然语言描述场景;3)推理能力:训练模型能够实现高层次的视觉推理。本文设计了一个由GPT-4V和现有数据集共同创建的高质量、多样化、统一的多模式指令跟踪数据集,我们称之为RS-GPT4V。为了实现泛化性,我们使用了由GPT-4V通过指令跟踪引导推导出来的(问题,答案)对来统一诸如字幕和定位等任务;为了实现复杂场景,我们提出了一种具有局部策略的分层指令描述方式,描述了对象的细粒度属性和它们的空间关系,并具有全局策略将所有局部信息集成以生成详细的指令描述;为了实现推理能力,我们设计了多轮问答对来为模型提供推理能力。实证结果表明,通过RS-GPT4V微调的多模态大语言模型能够描述细粒度信息。数据集可在此网址获取:https://example.com
Jun, 2024