SMoT: 状态机思考
通过 Tree of Thoughts (ToT) 框架,可以弥补语言模型在考虑多种不同推理路径时的局限性,进而提高语言模型在需要问题解决的任务中的表现。实验表明,使用 ToT 的方法大大提高了语言模型在三个需要非平凡计划或搜索的任务的解决能力:24 点游戏、创意写作和小型填字游戏。
May, 2023
我们提出了《Algorithm of Thoughts》,这是一种新的通过算法推动大型语言模型的算法推理路径的策略,以在上下文学习中扩展其思路探索,并超越了早期单查询方法和最近的多查询策略。
Aug, 2023
本文提出了 Tree-of-Thought (ToT) 框架,它通过试错的思路来改进自回归大语言模型的问题解决能力。通过增加提示、检查、记忆和控制等模块来实现 ToT 系统。为了验证该技术的有效性,我们基于 ToT 设计了解决数独难题的求解器,实验结果表明,ToT 框架能够显著提高数独难题的成功率。
May, 2023
在本研究中,我们使用基于规划的方法结合部分可观察马尔可夫决策过程(POMDPs)来解决多步骤的问题,并通过 POMCP 在线求解器在 24 点游戏任务上展现出了 89.4% 的优越成功率,同时也提供了比之前使用的固定树搜索更好的任意时间性能。
Apr, 2024
通过创建示例池来代表每种语言模型较可靠回答的上下文类型,并利用经过微调的句子嵌入使上下文相似性接近对话状态相似性,本研究提出了一种新颖的 SLM/LLM 路由框架,旨在提高计算效率并增强任务性能,在对话状态跟踪任务中,相较于仅依赖 LLMs,所提出的路由框架显著提高性能,同时减少计算成本超过 50%。
Nov, 2023
在这篇论文中,我们通过探索一种机械化方法来回答语言模型在多步推理任务中是通过抄袭预训练语料库中记忆的答案还是通过多步推理机制来完成这些任务的疑问。我们引入了一种新的探测方法(称为机械化探测器),从模型的注意力模式中恢复推理树,用于分析两个语言模型:GPT-2 在一个合成任务(第 k 个最小元素)上以及 LLaMA 在两个简单的基于语言的推理任务(ProofWriter 和 AI2 推理挑战)上。我们展示了机械化探测器能够在大多数示例中从模型的注意力中检测到推理树的信息,这表明在许多情况下语言模型确实在其架构中经历了一个多步推理的过程。
Oct, 2023
通过迭代地探索和自我评估许多思维树以获得试错推理经验集,我们提出了一种用于 LLMs 问题解决的自动提示框架 BoT,它将作为一种新形式的提示来解决复杂的问题。实验证明,BoT 在解决复杂数学问题时,与其他先进的提示方法相比,可以达到更高或相当的问题解决率。
Feb, 2024
本文提出了一种新的满足性辅助语言建模方法,利用自然语言处理模型生成任务的声明性规范,使用现成的自动定理证明器进行推理并验证答案的正确性,在解决需要更复杂的规划与搜索任务时比基于编程范式的模型更加有效。
May, 2023
本文提出了一种名为 MoT 的新型框架,用于让 LLM 通过思考存储到外部记忆中来自我提升,实现推理和回答问题的能力的优化。实验结果表明,所提出的框架可以显著帮助 ChatGPT 在数学推理,常识推理,事实推理和自然语言推理方面提高其能力。
May, 2023
使用大型语言模型(LLMs)解决复杂任务的一个显著趋势是将复杂任务解决过程概念化为由 LLMs 支持的状态机。通过适当构建状态和定义状态转换,StateFlow 确保 LLMs 在任务解决过程中的响应得到明确的跟踪和管理,从而推动任务的进展。在每个状态内,StateFlow 允许执行一系列的动作,包括按照特定提示生成 LLMs 的响应以及根据需要利用外部工具。状态转换由 LLMs 做出的特定规则或决策来控制,从而实现通过预定义的 StateFlow 模型动态和自适应地推进任务。在 InterCode SQL 和 Bash 基准测试中评估结果表明,StateFlow 显著提高了 LLMs 的效率。
Mar, 2024