本地化零阶指示优化
自动提示优化是改进大型语言模型性能的重要方法。本文提出了一种新颖的视角,通过与基于梯度的模型优化器进行类比,设计了改进的 LLM-based 提示优化器的策略。实验结果表明 GPO 具有有效性和高效性,并分别相对基准方法在 Big-Bench Hard 和 MMLU 上带来了多达 56.8% 和 55.3% 的额外改进。
Feb, 2024
通过采用良好设计的元指令,我们提出了一个双重阶段的方法来加速提示优化过程,以应对低收敛速度的挑战,并在句级别上迭代优化提示,利用之前的调优经验扩展提示候选并接受有效的候选。对八个数据集进行的大量实验证明了我们提出的方法的有效性,在少于五次优化步骤的情况下与基准模型相比实现了一致的准确率提升。
Jun, 2024
在此工作中,我们提出了一种名为 OPRO 的优化方法,利用大型语言模型作为优化器,通过自然语言描述优化任务。我们首先展示了 OPRO 在线性回归和旅行商问题上的应用,然后转向优化提示,目标是找到最大化任务准确性的指令。我们通过多种大型语言模型的实验证明,OPRO 通过优化提示的方式胜过人工设计的提示,在 GSM8K 上提高了最多 8%,在 Big-Bench Hard 任务上提高了最多 50%。
Sep, 2023
本研究旨在探索大规模语言模型用于信息检索的零 - shot 重排问题。我们提出了一种新颖的离散提示优化方法 Co-Prompt,并将其应用于零 - shot 重排任务中。实验表明,Co-Prompt 相对于基线有着卓越的重排表现,并且生成更易于人理解的提示。
May, 2023
通过细致研究 LLM-based Automatic Prompt Optimization 的机制,发现 LLM 优化器在自我反思时往往倾向于以自身的先验知识为偏见,难以正确识别错误的真正原因;此外,LLM 优化器在语义上有效的反思时,由于目标模型行为的难以预测性,往往在单次优化步骤中难以生成适当的提示。因此我们提出了 “Automatic Behavior Optimization” 新范式,以更可控的方式直接优化目标模型的行为,希望本研究能启发自动提示优化的新方向。
Feb, 2024
自动选择给定输入的最佳提示,克服手动设计有效提示的挑战,通过聚类训练数据、生成候选提示、生成输入 - 提示 - 输出数据集以训练评估器,并使用评估器在测试时选择最佳提示来实现兼顾通用性和特异性的方法。在零 - shot 问答数据集上显示出竞争性性能。
Apr, 2024
通过敏感性分析调查语言模型的提示作用,揭示只有少数词汇对模型预测产生了很大影响,并基于此设计了 Clustering and Pruning for Efficient Black-box Prompt Search (ClaPS) 搜索方法,该方法在搜索空间中引入聚类和修剪,集中关注具有影响力的提示词汇。通过在修剪后的搜索空间中应用简单的搜索方法,ClaPS 在各种任务和语言模型上达到了最先进的性能,超越了复杂方法的性能,并显著降低了搜索成本。该研究突出了搜索空间设计和优化在提升黑盒提示学习的实用性和效率方面的关键作用。
Oct, 2023
本文提出了一种自动优化提示技术(APO)来改进 Large Language Models(LLMs)的图灵能力,APO 采用数值梯度下降的方法来自动更改提示语并带来了很大的效率提升和预测性能的提升。
May, 2023
提出一种不依赖标签数据或梯度更新的 “零标签提示选择” 方法(ZPS),通过使用伪标签的方式来选择最优的提示,实现零标签任务的高性能。在零标签性能方面,ZPS 显著改善了先前方法,并将其扩展到少量样本的情况下,表现优于强基线模型。
Nov, 2022