ICCVJul, 2023

利用合成提示来提升 CLIP 的零样本泛化能力

TL;DR本文提出了一种基于生成式方法的模型适配方案 (SHIP),使用文本和图像信息进行训练的预训练模型 (CLIP) 可以在没有标签的类别上表现出更好的效果。在对基础数据集到新的数据集的泛化、跨数据集的迁移学习和广义的零样本学习等方面进行了广泛实验,证明了该方法的优越性