本文提出了一种无监督提示学习(UPL)方法,以避免提示工程并同时提高类似 CLIP 的视觉语言模型的传递性能。该方法实验结果显示,在 ImageNet 以及其他 10 个数据集上,与原始 CLIP 相比,UPL 具有更优秀的传输表现,并且增强版的 UPL 在大多数数据集上甚至能够与 8-shot CoOp 和 8-shot TIP-Adapter 竞争。
Apr, 2022
本研究提出了一种使用仅文本数据学习通用提示的方法,通过将 LLL(large language models)中的上下文数据映射到学习到的提示中,实现了零样本转移,并在 4 个基准测试上进行了广泛评估。
Jan, 2024
最近大型语言模型(LLMs)的进展引发了对推断成本的担忧,加大了对模型压缩研究的需求。尽管知识蒸馏(KD)是一种突出的方法,但对于生成性语言模型(如 LLMs)的 KD 研究相对较少,而在分类模型的 KD 中表现出有希望的学生友好知识蒸馏方法在生成性语言模型中尚未被探索。为了探索这种方法,我们提出了 PromptKD,一种简单而有效的方法,利用首次使用的提示调整方法在 KD 中实现生成性语言模型的学生友好知识转移。与需要对整个教师模型进行微调以提取学生友好知识的分类作品不同,PromptKD 通过添加少量的提示符令牌并仅调整提示来实现类似效果,并在学生的指导下进行。在使用 GPT-2 模型系列对遵循指令的数据集进行的广泛实验表明,PromptKD 实现了最先进的性能,并且仅添加了教师参数的 0.0007%作为提示。进一步的分析表明,蒸馏学生友好的知识有效地减轻了整个训练过程中的曝光偏差,从而提高了性能。
Feb, 2024
通过设计两种类型的知识感知提示,离散提示和学习连续提示,以及视觉编码器的适应头部,实现针对视觉 - 语言模型的知识感知提示调整(KAPT)框架在少样本图像分类中的有效性和对未见类别的泛化能力。与最先进的 CoCoOp 方法相比,KAPT 在新类别中获得了 3.22% 的绝对增益和 2.57% 的调和均值增益。
Aug, 2023
通过使用关系、特征、梯度和对比范式等多种蒸馏策略对基于大型教师 CLIP 模型的小型 CLIP 模型进行监督,本研究在零样本 ImageNet 分类和跨模态检索基准上一致提升了学生 CLIP 模型的性能,提供了重要的 CLIP 蒸馏研究基准。
Jul, 2023
本文提出一种叫做上下文提示学习的框架,用于多模态学习中训练可对齐图像本地化特征并且能够适应当前任务的动态提示,通过应用于多个标准和少样本数据集上展示了比现有技术方法更优越的性能和强大的适用性。
通过概念引导提示学习的方式,CPL 方法显著提高了通用化性能。
提出了基于提示分布学习的方法,从而通过有效地适应先前训练的视觉 - 语言模型来处理下游的识别任务,该方法不仅从少量样本中学习低偏差的提示,而且还捕获多种提示的分布以处理不同的视觉表示。
May, 2022
通过解耦关注力,提出了一种新的方法 Decoupled Prompt Learning (DPL) 来增强 prompt learning 的泛化能力,并在多个基准测试中取得了最先进的性能。
通过无监督的提示学习方法,本文提出了一种改进图像字幕生成通用性的方法,该方法利用预训练的视觉 - 语言模型来学习目标领域的特定提示向量,通过属性一致性和语义一致性优化领域特定提示向量,从而有效地保留了大型模型中的知识并引入了领域特定知识。