使用名为 ReAct 的方法,在大型语言模型中交错生成推理迹线和任务特定的操作,以促进两者之间的协作,从而在多项语言理解和决策任务中提高其有效性,同时优于缺乏推理或行为组件的方法。
Oct, 2022
利用领导者 - 追随者双层框架,本文实现了一个完全集成的端到端框架,用于处理复杂的推理任务,并通过引入历史发现为生成合适的问题(提示)提供指导,进而指导行动学习。
Oct, 2023
通过重新阅读问题信息嵌入在提示中,我们提出了一种似乎简单但非常有效的提示策略,称为 “问题重新阅读”,该方法与认知增强的原理相一致,使得大型语言模型能够提取更深入的见解,识别复杂的模式,建立更细致的联系,从而增强其在各种任务中的推理能力。
Sep, 2023
在这篇论文中,我们提出了一种名为 RePrompt 的新方法,通过从与 LLM 代理的交互中获取的聊天记录,逐步优化 LLM 代理的提示,从而使 LLM 在特定领域中学会规划,我们在 PDDL 生成和旅行规划的实验中证明了我们的方法可以提高不同推理任务的性能。
Jun, 2024
本文提出了一种新的方法 Active-Prompt,通过任务特定的示例提示来适应 LLMs 的不同任务,通过从特定的查询池中选择最不确定的问题进行注释来确定哪些问题是最重要和有帮助的。经验结果表明了我们提出的方法的优越性,取得了八项复杂推理任务的最新成果。
Feb, 2023
利用大规模预训练语言模型,通过迭代增强和定制提示来提升其在复杂任务中的性能。
通过 ReAct-style LLM 代理,我们可以迭代训练一个经过改进的小模型,用于具有挑战性的组合式问答基准测试,参数数量减少了两个数量级。
Dec, 2023
该论文介绍了一种新方法,即通过多个语言模型实例的反复辩论和推理过程,以达成一个共同的最终答案,从而改善语言响应的表现,特别是在数学和策略推理方面,改善了已有模型中一些常见问题,如虚假答案和幻觉现象,并有望显著提高大型语言模型的性能和开拓语言生成和理解领域。
May, 2023
本文探讨利用语言模型 (LLMs) 作为知识源,辅助 agent 学习新任务的能力。通过使用构建提示词(或 “暗示”),研究什么样的响应既合理,又可以满足 Agent 任务上下文。研究结果表明,在线 agent 任务学习可以从 LLMs 获取可操作的任务知识。
Sep, 2022
通过提出协作多代理、多推理路径的提示框架(CoMM),我们旨在推动大型语言模型(LLMs)的推理能力的上限,特别是解决复杂科学问题。
Apr, 2024