在前沿上预训练十亿级地理空间基础模型
基于深度学习的 Prithvi 地球观测模型通过高效前期训练和微调,成功实现地球观测领域多个任务的优化,证明了预训练模型在加速微调过程以及在性能上优于随机初始化权重的作用,并表明可显著减少可用标注数据的数量而不影响模型准确性。
Oct, 2023
通过在多个地理空间子领域进行测试,发现在某些文本模态的地理任务中,基于任务不可知的大型语言模型可以在零样本或少样本学习设置中胜过基于任务特定的全监督模型,但是在其他涉及多种数据模态的地理任务上,现有的基础模型仍然不如基于任务特定的模型表现。因此,通过处理不同的地理数据模态,建议可能性使用能够通过地理对齐来推理各种类型的地理数据的多模态基础模型来应对地理人工智能挑战的多模态特征。
Apr, 2023
本文研究了模型参数数量增加对远程遥感领域中基础模型在旋转物体检测和语义分割等下游任务性能的影响,并通过实验验证了模型参数数量的增加可以提升模型性能和数据效率,进而提出了一种有效的基于视觉变换器进行扩展和微调的远程遥感领域的方法。
Apr, 2023
通过开放地理空间数据和自我监督学习,CityFM 构建了一个多模态的预训练基础模型,用于处理地理空间数据和回答城市相关问题,并在道路、建筑和区域级别的任务上获得了优秀的性能。
Oct, 2023
本研究针对遥感任务的基础模型研究进行了探讨,提出了一种包括六项分类任务和六项分割任务的基准测试以及可靠的评估方法,并报告了二十种基线模型的结果,旨在推动地球监测领域的模型进展。
Jun, 2023
评估 IBM-NASA 的 Prithvi 模型在洪水淹没区域的地理空间分析任务中的性能,并与其他卷积神经网络和视觉变换器架构进行比较,结果显示了 Prithvi 模型在未见过的区域中分割淹没区域的出色可迁移性,同时建议在多尺度表示学习、高级图像分析任务的端到端流程和输入数据波段的灵活性方面进一步改进。
Sep, 2023
利用大型视觉基础模型(VFMs)通过在庞大数据集上预训练,以及在有限标记的目标数据下展现出优异性能的情况下,提出了一种简单高效的面向任务的知识迁移方法,用于对小型任务特定模型进行有效训练。实验结果表明,该方法在有限标记数据的情况下,在四个目标任务上的性能优于面向任务无关的 VFM 蒸馏、Web 规模 CLIP 预训练和监督式 ImageNet 预训练,分别提升了 1-10.5%、2-22% 和 2-14%。研究还指出了用于知识迁移的数据集对最终目标任务性能的显著影响,并提出了基于图像检索的方法来筛选有效的迁移集。
Nov, 2023
该论文重新审视了在视觉识别任务中使用的标准预训练 - 微调范式,通过使用自监督 MAE 技术实现额外的预先训练阶段来初始化模型。该方法不仅可以扩展模型大小,还可以扩展训练数据集的规模,从而提高了基础模型的训练效率以及各种视觉识别任务的性能并取得了新的最优结果。
Mar, 2023
基于基础模型对计算机视觉、地球观测和地理空间人工智能领域的问题进行联合解决,其对于有限的标记数据表现出更好的性能,并且在下游任务中具有标签高效的特点。
Jun, 2024