基于约束生成的离散提示优化用于零样本重排
该论文提出了一种基于强化学习的离散提示优化方法(RLPrompt),旨在有效地生成适合不同类型的预训练语言模型使用的离散提示,并在极少量的下游数据情况下表现出优异的表现。
May, 2022
该论文综述了大型语言模型在自然语言处理任务中的重要性,并聚焦于不同类型的提示(如离散、连续、少样本和零样本)及其对模型性能的影响。论文探讨了手动设计、优化算法和评估方法等多种提示设计方法,以优化模型在不同任务中的性能。此外,论文还讨论了评估提示性能所面临的挑战,并指出了提示设计在充分利用大型语言模型的潜力中的关键作用,为在自然语言处理任务中更有效、更高效地使用大型语言模型提供了启示。
Sep, 2023
我们通过大规模实验和分析发现,零 - shot 大语言模型的排名方法的差异不仅来源于排名算法和模型骨干,而且还很重要的来自于提示元素和用词的选择,实际上,我们在实验中发现,这些后者对排名器的有效性产生的影响有时比实际的排名算法更大,而且在考虑到提示的变化时,排名方法之间的差异变得更加模糊。
Jun, 2024
通过对提示优化进行全面的实证研究,我们得出两个主要结论:相对全局最优解的罕见性,局部最优解普遍存在且表现良好(洞见一)。输入域的选择对于识别表现良好的局部最优解起着重要作用(洞见二)。受到这些洞见的启发,我们提出了一种新的算法 —— 局部零阶提示优化(ZOPO),将基于神经切向核的推导高斯过程纳入标准零阶优化中,以高效搜索在提示优化中表现良好的局部最优解。通过广泛的实验证明,ZOPO 在优化性能和查询效率方面优于现有基线模型。
Mar, 2024
通过自动提示工程算法 APEER,大型语言模型在信息检索中的零样本相关性排名取得了显著的性能提升,并展现出更好的跨任务和跨语言模型的可迁移性。
Jun, 2024
本文提出了一种新的技术叫做 Pairwise Ranking Prompting (PR),通过使用适当的排名提示,减少了 LLMs 的负担,使用 moderate-sized open-sourced LLMs 在标准的基准测试中实现了最先进的排名表现。
Jun, 2023
通过敏感性分析调查语言模型的提示作用,揭示只有少数词汇对模型预测产生了很大影响,并基于此设计了 Clustering and Pruning for Efficient Black-box Prompt Search (ClaPS) 搜索方法,该方法在搜索空间中引入聚类和修剪,集中关注具有影响力的提示词汇。通过在修剪后的搜索空间中应用简单的搜索方法,ClaPS 在各种任务和语言模型上达到了最先进的性能,超越了复杂方法的性能,并显著降低了搜索成本。该研究突出了搜索空间设计和优化在提升黑盒提示学习的实用性和效率方面的关键作用。
Oct, 2023
本文提出了一种基于大型语言模型的 PromptRank 方法,可用于多跳 QA 的少样本重新排序,该方法构建一个基于指令的提示,在给定问题和路径提示的条件概率下计算给定问题和文档路径之间的相关性得分,并且在 HotpotQA 数据集上具有强大的检索性能。
May, 2022
基于对话的基于策略梯度的离散提示优化方法通过多轮对话适应性策略生成可读性提示集,并提出了具有线性复杂度的高质量提示筛选度量和基于策略梯度的强化学习框架,优于四个开源数据集上平均 1.52%的最先进方法,在只使用少量的预训练语言模型参数进行学习的少样本设置中,$DP_2O$ 具有良好的通用性、稳健性和泛化能力。
Aug, 2023
自动提示优化是改进大型语言模型性能的重要方法。本文提出了一种新颖的视角,通过与基于梯度的模型优化器进行类比,设计了改进的 LLM-based 提示优化器的策略。实验结果表明 GPO 具有有效性和高效性,并分别相对基准方法在 Big-Bench Hard 和 MMLU 上带来了多达 56.8% 和 55.3% 的额外改进。
Feb, 2024