EchoPrompt: 教导模型为了改进上下文学习而重新表述查询
本文提出了一个度量标准,评估了一个固定提示对标签或给定属性的预测偏差,并提出了一种新的基于贪心搜索的搜索策略来确定最佳提示,以提高上下文学习的性能,并在多种下游任务中使用 GPT-3 等最先进的主流模型进行全面实验。结果表明,我们的方法可以有效提高模型的在上下文学习性能。
Mar, 2023
本文介绍了一种使用神经语言模型的 zero-shot prompting 方法,在不需要监督训练的情况下解决 ad-hoc 语言任务。我们提出了 PromptIDE 工具,该工具可以帮助用户实验不同的提示词选择,以达到任务指标的优化和数据量的扩展。该工具已在多个现实世界的案例中得到了应用。
Aug, 2022
本论文提出了一种检索增强的提示学习方法(RePrompt),通过引入检索机制来对下游任务进行知识表示的缓存,该方法在 15 个视觉数据集上进行了广泛实验,包括 11 个在少样本设置下的下游任务和 4 个域泛化基准,在处理领域差异增加时取得了明显的改进。
Jun, 2023
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
为了提高大型语言模型的零样本性能,我们提出了 PRoMPTd 方法,通过为每个测试输入重写任务提示来实现更具体、明确和完整的指导,实现了对不同任务的更好解决方案,并提供了更好的解释性以应对对抗性提示。
Oct, 2023
本文综合系统地对五个临床自然语言处理任务(临床意义消除、生物医学证据提取、共指消解、药物状态提取和药物属性提取)的提示工程进行了实验研究,评估了多种提示类型在三种先进的大型语言模型(GPT-3.5、BARD 和 LLAMA2)上的性能,并提出了对临床 NLP 领域提示工程的新见解和指南。
Sep, 2023
通过利用任务和提示的特征,AdaPrompt 使预训练语言模型不断预训练,提高了 NLP 方面几个基准测试中的表现,在零样本情况下相对误差降低了高达 26.35%。
Feb, 2022
PRE 是一种简单而高效的方法,通过使用一种 prompt 编码器来重新参数化输入 prompt 嵌入,从而增强对从少量样本中探索任务特定知识的能力,其在新类上实现了 5.60% 的平均准确率提升和 3% 的调和平均数提升。
Sep, 2023
本研究提出了一种叫做 code prompting 的新型神经符号提示方法,通过触发代码作为中间步骤,以实现符号和算术推理任务一直面对的语言及理解难题。经过对七项广泛使用的基准测试进行实验验证,研究者发现 Code Prompting 方法通常优于 Chain-of-Thought(CoT)Prompting。他们还考虑了代码提示和 CoT 提示的融合来结合两者的优点。最后,通过实验证明,代码注释及其位置如何影响代码提示。
May, 2023