专注关注:面向领域通用的提示优化方法,用于语言模型
通过减小分布偏移,将零样本泛化的视觉 - 语言模型在未见领域中的性能提升了 3.08%,并且在跨数据集泛化的情况下,在所有数据集上相对于现有的最先进方法有一致的改进。
Nov, 2023
本文提出了一种名为 OPTIMA 的算法,通过领域自适应来改进预处理语言模型的 prompt tuning,结果表明 OPTIMA 可以显著提高 prompt tuning 的可迁移性和样本效率,并在少样本情况下超过全模型调整性能。
Oct, 2022
本研究提出了一种名为 SwitchPrompt 的轻量级提示方法,通过使用可训练的闸门提示和领域特定关键字,将预训练的通用领域语言模型来适应各种低资源域,实验结果表明 SwitchPrompt 减少了领域特定语言模型预训练的需求,并在三种文本分类基准测试中显著提高了准确率,比基准提示方法训练出的领域特定对应物最高可提高 10.7%。
Feb, 2023
本文针对单层的注意力机制和上下文混合模型,探究了 Prompt-tuning 的策略,并分析了 Prompt 在梯度下降过程中学到的规律和其在上下文中的表现,最终提出了有关 Prompt-tuning 的理论解释和实验验证。
Jun, 2023
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024
通过采用良好设计的元指令,我们提出了一个双重阶段的方法来加速提示优化过程,以应对低收敛速度的挑战,并在句级别上迭代优化提示,利用之前的调优经验扩展提示候选并接受有效的候选。对八个数据集进行的大量实验证明了我们提出的方法的有效性,在少于五次优化步骤的情况下与基准模型相比实现了一致的准确率提升。
Jun, 2024
本文提出一种名为 CoPrompt 的 fine-tuning 方法,用于提高大规模 foundation 模型在 few-shot 场景下 fine-tuning 过程中的泛化能力,实现方法包括强制任务输出一致性约束、在两个受扰动的输入之间进行一致性约束、并结合提示和适配器两种调整模式的优势来调整额外参数。实验表明,CoPrompt 在基于新颖类别、领域泛化以及跨数据集评估任务上均优于现有方法。
Jun, 2023
自动提示优化是改进大型语言模型性能的重要方法。本文提出了一种新颖的视角,通过与基于梯度的模型优化器进行类比,设计了改进的 LLM-based 提示优化器的策略。实验结果表明 GPO 具有有效性和高效性,并分别相对基准方法在 Big-Bench Hard 和 MMLU 上带来了多达 56.8% 和 55.3% 的额外改进。
Feb, 2024
这篇论文介绍了一种名为 POAC 的新方法,旨在增强从抽象概念中解释和生成图像的文本到图像扩散模型的性能。它提出了一个 Prompt Language Model (PLM) 的框架,通过优化的提示来对生成的图像进行对齐,通过大量实验证明,POAC 显著提高了生成图像的准确性和美学质量,尤其是在描述抽象概念和优化提示方面。
Apr, 2024
大型预训练视觉语言模型(VLMs)在下游任务中展现出令人印象深刻的零 - shot 能力,但人工设计的提示对特定领域不够优化。本文提出了一种用于下游任务的软提示方法,通过在特定域数据上进行微调,将软提示作为学习向量。我们从生成的角度重构了提示学习框架,并提出了一种简单而高效的域泛化(DG)任务方法,即软提示生成(SPG)。在训练阶段,我们引入了每个领域的软提示标签,以融合生成模型的领域知识。在推理阶段,生成模型的生成器被用来获取未知目标域的实例特定软提示。对三个域泛化任务的五个领域泛化基准进行的大量实验证明了我们提出的 SPG 方法达到了最先进的性能。代码将很快提供。
Apr, 2024