元规范化的提示学习
这篇论文提出了一种名为 SUPMER 的 Self-sUpervised meta-Prompt 学习框架,通过自主学习锚定 Meta-Training 任务和整体学习的方法,实现 Prompt Tuning 在 few-shot learning 任务中领先于其他方法,同时也加强了领域通用性的性能。
Mar, 2023
该论文提出了一种基于提示正则化的新模式,用于在下游任务中微调大规模视觉语言预训练模型。通过提示预训练模型进行预测,来规范微调,从而保持其对迁移领域的高性能。同时,通过引入 Kullback-Leibler 损失等手段,自适应权衡预训练与下游任务训练过程中的差异,进一步提高模型性能。
Jan, 2023
本文提出了 MetaPrompter,它使用元学习和软标记器来共同构建任务特定的提示。MetaPrompter 相对于最近的最佳方法表现更好,而 RepVerb 则优于现有的软标记器。
Jun, 2023
本文提出了一种称为 MetaPrompting 的通用软提示方法,它采用了公认的模型无关元学习算法来自动找到更好的提示初始化,有助于快速适应新的提示任务,并在四个不同的数据集上取得了显著的改进(1-shot 模式下精度提高了超过 6 个百分点),达到了新的最佳性能水平。
Sep, 2022
通过 Meta-Prompting for Visual Recognition (MPVR) 方法,仅凭目标任务的简短自然语言描述和相关类别标签的最小信息输入,自动产生一组多样的类别特定提示,从而实现强大的零样本分类器。在多个不同领域的流行的零样本图像识别基准上,使用多个 LLMs 和 VLMs 测试,MPVR 可以有效地推广,比 CLIP 提高了最高 19.8%和 18.2%(平均 20 个数据集上分别为 5.0%和 4.5%),依赖于 GPT 和 Mixtral LLMs。
Mar, 2024
本文研究了元提示调整(meta prompt tuning)来探索元学习如何通过学习从其他相关任务中初始化提示嵌入来帮助改善 PT 中的跨任务推广。我们在广泛的适应设置中经验性地分析了代表性的元学习算法,并从任务相似性的角度提供了深入的分析。实验结果表明,MPT 的改进在分类任务中显著。
Feb, 2023
本研究提出了 Prompt-aligned Gradient 算法(ProGrad)来防止针对 Prompt 的微调忘记从 VLM 学到的一般知识,并通过实验证明其比现有方法具有更强的 few-shot 泛化能力。
May, 2022
研究使用变分推理解决 Empirical Risk Minimization 在 prompt learning 中的分布偏移问题,在 15 个用例中通过 Bayesian prompt learning 实现了更好的泛化性能。
Oct, 2022
通过引入元提示技术,将单个语言模型转变为多面手指挥者,通过高级指示将复杂任务分解为可管理的子任务,从而提高语言模型的综合性能。元提示方法的任务无关性大大简化了用户交互,而与 Python 解释器等外部工具的无缝集成扩展了其适用性和实用性。在 GPT-4 上进行的实验表明,相比传统的支架方法,使用元提示技术在所有任务上平均效果提高了 17.1%,动态支架方法提高了 17.3%,多身份支架方法提高了 15.2%。
Jan, 2024