提出了一种名为 X-Prompt 的方法,通过引入虚构单词的可扩展词汇表,指导大型语言模型(LLM)完成超越自然语言的任务,使得提示更具描述性,并实现了上下文引导学习及提示增强,从而使其虚构单词可以用于不同的提示上下文,以达到精细的规范。该方法在人类与 LLMs 间构建了通信桥梁,有望实现更高级的交互。
Dec, 2022
本文介绍了一种使用神经语言模型的 zero-shot prompting 方法,在不需要监督训练的情况下解决 ad-hoc 语言任务。我们提出了 PromptIDE 工具,该工具可以帮助用户实验不同的提示词选择,以达到任务指标的优化和数据量的扩展。该工具已在多个现实世界的案例中得到了应用。
Aug, 2022
利用大型语言模型,PromptWizard 框架通过迭代合成和优化面向特定任务的提示信息,包括了指令和上下文示例的优化,提高了模型的性能。该框架在效率、数据量和小型语言模型上的适应性以及优于现有提示策略的实证评估中展现出优越性,呈现出良好的可行性和可扩展性。
May, 2024
通过利用概率编程技术以及组合多个模型,并在测试中反复交互,我们提出了一种基于语言模型层级结构的模型组合方法,以实现对复杂数据类型(如字符串)的快速学习和推理。
Jul, 2022
通过结合人类设计的反馈规则,采用基于遗传算法的大语言模型驱动的离散提示优化框架,实现了对多步任务中自动提示的改进,相比现有的方法,平均有 27.7% 和 28.2% 的改善效果。
Feb, 2024
利用 Progressive Prompts 方法解决语言模型领域中的连续学习问题,它以前向传递为基础,无需数据重放或大量的任务特定参数,并且其推动学习的方式有助于抵御灾难性遗忘,实验表明相对于 T5 模型的最佳方法,平均测试准确性提高了 20% 以上,即使在较长序列的任务中,我们的方法也明显优于之前的方法。
Jan, 2023
通过使用预先训练的语言模型生成与人类专家设计相似的提示语,NeuroPrompts 自适应框架可以改善文本到图像模型生成结果的质量,并提供用户对风格特征的控制。研究通过创建一个与 Stable Diffusion 相关的互动应用程序,展示了该框架的实用性。此外,通过利用大型数据集的人工设计提示,在文本到图像生成过程中,自动产生的改进提示可获得更高质量的图像。
Nov, 2023
本研究提出了一个名为 OpenPrompt 的工具包,可以针对预训练的语言模型进行提示学习,具有高效性、模块化和可扩展性,使用户能够快速部署提示学习框架并在不同的 NLP 任务上进行评估。
Nov, 2021
本研究探索了一个迭代提示框架,用于让预训练语言模型具有多步推理能力,我们提出了一种基于上下文的迭代提示器,可以动态地合成提示,以捕捉不同推理步骤之间的变化。实验证明,该方法在多步推理方面具有很好的效果。
Mar, 2022
使用大型语言模型进行基于语言的移动性预测已成为一种创新的方法。本文提出了一种基于信息熵的提示生成和链式思维等机制的提示细化的框架,旨在探索多样的提示设计策略,实验结果表明了我们提出的提示挖掘管道的优越性,为进一步推进基于语言的移动性预测提供了有希望的方向。
Mar, 2024