通过Prompt2Model方法,可以使用少量的提示,训练出性能优异、体积小700倍的特定目的模型,用于自然语言处理任务。
Aug, 2023
该综述研究了快速建模在发挥大型语言模型的能力方面的关键作用,探讨了角色激励、单次指示、观点链、观点树等快速建模的基本原则和高级方法,并阐述了外部插件如何协助此任务并减少机器幻觉,强调了深入了解结构和代理角色在人工智能生成内容工具中的重要性,最后讨论了在教育和编程等领域中应用快速建模的实践和潜力。
Oct, 2023
本综述论文通过提供近期进展的结构化概述,对提示工程的不同方法和技术进行分类,详细介绍了提示方法学、应用领域、所使用的模型和数据集,并探讨了每种方法的优点、局限性以及通过分类图和表格总结了数据集、模型和关键点,从而更好地理解这一快速发展领域并为提示工程的未来研究提供洞察、揭示了开放性挑战和机遇。
Feb, 2024
通过结合人类设计的反馈规则,采用基于遗传算法的大语言模型驱动的离散提示优化框架,实现了对多步任务中自动提示的改进,相比现有的方法,平均有27.7%和28.2%的改善效果。
采用系统性方法对大型语言模型的提示技术进行分类,通过举例说明实际应用,为从业人员提供一个结构化的理解和分类提示技术的框架,以便更有效地利用大型语言模型的各种应用领域。
大语言模型 (LLM)在许多任务上展现出了令人印象深刻的性能。然而,为了实现最佳性能,仍然需要特殊设计的提示方法。在这项工作中,我们试图引入通用提示的概念,它在设计原则上旨在在广泛的任务范围内实现最佳或接近最佳的性能,同时消除了手动选择和定制面向特定问题的提示的需求。此外,我们提出了一种创新的提示方法 MeMo(心智模型),它设计简单但有效地满足通用提示的要求。MeMo将各种提示方法的要点提炼成个别的心智模型,并允许LLMs自主选择最合适的心智模型来解决问题,在零样本设置下在STEM、逻辑推理和常识推理等多种任务上达到或接近于最新的研究结果。我们希望本文所提出的见解能够激发更多对LLMs的通用提示方法的探索。
在这篇论文中,我们对高效提示的各种方法进行了全面的概述,包括使用高效计算和高效设计进行提示的方法,重点关注未来的研究方向。
Apr, 2024
基于大规模语言模型的广泛使用,提出了一种用于预测提示组合效果的框架PEPR,并提供了简单方法用于选择有效的提示。在不同任务上,利用不同规模的开源语言模型对该方法进行了评估。
May, 2024
通过总结44篇研究论文,本文讨论了大型语言模型在各个自然语言处理任务中的提示工程技术,包括39种不同的提示方法在29个不同的任务上的性能表现、使用的语言模型以及对特定数据集的可能最先进技术,并提供了任务分类图。
Jul, 2024
本研究解决了黑箱大型语言模型(LLMs)在响应质量提升中的局限,提出了一种自我指导的上下文学习框架,通过生成可靠的派生提示来构建信息丰富的上下文环境。实验表明,该方法不仅生成更可靠的提示,还显著提升了LLMs(包括GPT-4)的响应效果。
Sep, 2024