计划、验证和切换:多样思维的集成推理
本研究通过一种自洽的跨语言提示机制,提出了一种跨语言多步推理方法,可以在不同语言中实现多步推理路径,从而达到解决复杂推理任务的目的,并在实验评估中表现出比现有提示方法更优的性能。
Nov, 2023
通过迭代地探索和自我评估许多思维树以获得试错推理经验集,我们提出了一种用于 LLMs 问题解决的自动提示框架 BoT,它将作为一种新形式的提示来解决复杂的问题。实验证明,BoT 在解决复杂数学问题时,与其他先进的提示方法相比,可以达到更高或相当的问题解决率。
Feb, 2024
使用预训练增强学习和蒙特卡罗树搜索,引入了一种称为 “Everything of Thoughts”(XoT)的新思维启发方法,以提升大型语言模型(LLMs)的能力并使其能够高效地推广到未见过的问题。这种方法利用 MCTS-LLM 协作思维修订框架自主产生高质量的综合认知映射,同时赋予 LLMs 进行无约束思考的能力,从而对具有多个解决方案的问题进行灵活的认知映射。
Nov, 2023
该研究提出了一种将语言与视觉信息相结合的理由生成和答案推断的多模态 - CoT 框架,使得答案推断可以更好地利用基于多模态信息的生成的理由,并取得了比先前最先进的 LLM(GPT-3.5)高 16 个百分点(75.17%-> 91.68%准确度)的性能,在 ScienceQA 基准测试中甚至超过了人类的表现。
Feb, 2023
通过进行实验案例研究并将结果与机器学习中的样本和计算复杂性联系起来,我们发现如果问题可以分解成一系列推理步骤,并且学习预测下一步具有较低的样本和计算复杂性,明确列出推理链与预测下一步所需的所有必要信息可能会改善性能,相反,对于计算复杂的问题,采用树状推理可能比尝试形成简短的推理链更好地产生推理结果。
Apr, 2024
提出了一种名为 RoT 的推理框架,通过引入多个特殊标记来激活模型输出,以便将问题分成多个上下文,从而极大地改善了语言模型的推理能力,能够解决由数十万个标记组成的问题。
Jun, 2023
通过链式推理技术,大型语言模型(LLMs)在复杂推理任务中取得了显著进展。然而,它们的推理常常受到内在理解的局限,缺乏外部洞察力。为了解决这个问题,我们提出了一种名为 “交换思路(EoT)” 的新框架,它在问题解决过程中实现了跨模型通信。EoT 从网络拓扑中汲取灵感,整合了四种独特的通信范式:记忆、报告、中继和辩论。本文深入探讨了每种范式所涉及的通信动态和通信量。为了平衡不正确推理链的风险,我们在这些通信中实现了一个健壮的置信度评估机制。我们对各种复杂推理任务进行的实验表明,EoT 明显超过了已有的基线方法,凸显了外部洞察力在增强 LLM 性能方面的价值。此外,我们还展示了 EoT 以一种具有成本效益的方式实现这些卓越结果,标志着高效而协同的人工智能问题解决的有望发展。
Dec, 2023
提出 Faithful CoT 框架以实现准确性和真实性的协同作用,通过将推理任务分解为翻译和问题求解两个阶段,使用 LM 和确定性求解器分别实现。在 10 个推理数据集上进行比较并展示 Faithful CoT 框架的优越性。
Jan, 2023
本研究提出了一种名为跨语言思维提示(XLT)的方法,通过激发跨语言和逻辑推理技能,改善了大语言模型的多语言能力,并在与推理、理解和生成有关的 7 个基准测试中进行了全面的评估,实验结果显示 XLT 不仅显著提高了各种多语种任务的性能,而且还显著减少了不同语言中每个任务平均性能和最佳性能之间的差距。
May, 2023