BriefGPT.xyz
大模型
Ask
alpha
关键词
downstream datasets
搜索结果 - 3
面向语言 - 图像预训练的居中掩蔽
我们介绍了用于语言 - 图像预训练的高斯掩模化 (GLIP) 技术,它是一种新颖、直接且有效的技术,在预训练视觉 - 语言模型期间屏蔽图像补丁。GLIP 基于快速语言 - 图像预训练 (FLIP),在训练 CLIP 模型时随机屏蔽图像补丁。
→
PDF
3 months ago
卫星图像的时间自监督(S3-TSS):一种卫星图像中的 SSL 技术的新方法
提出了一种名为 S3-TSS 的自监督学习技术方法,利用时序维度中自然增强的遥感数据进行训练,在四个下游数据集中表现优于基准算法 SeCo。
PDF
4 months ago
下游数据集出人意料地成为良好的预训练语料库
本文介绍了一个大规模的自我训练研究,其中使用相同的(下游)训练数据进行预训练和微调,并且观察到自我预训练可以与标准预训练相媲美,这表明在许多情况下,预训练性能增益主要受预训练目标本身的驱动,而不一定是庞大数据集的影响。
PDF
2 years ago
Prev
Next