超越思维链:LLM 的链式 X 范式综述
根据 Blocksworld 的案例研究,通过链式思维问题可以提高大型语言模型的性能,但需要高度问题特定的提示,并且存在性能改善和生成正确推理示例所需人力之间的明显权衡。
May, 2024
我们对 Chain-of-Thought (CoT) 的关键因素进行了系统和全面的分析,介绍了如何在不同应用中更好地应用 CoT 提示,并提出了一些建议和未来的研究方向。
Oct, 2023
提出了一种基于大型语言模型的新型符号化思维链 (SymbCoT) 框架,通过将符号表达和逻辑规则与语言模型集成,以增强其逻辑推理能力,并在 5 个标准数据集上通过深入评估展示了显著的性能提升。
May, 2024
研究表明 Chain-of-Thought 提示可以显著改善大型语言模型的性能,特别是在涉及数学或推理的复杂任务中。本文首先对这些问题的潜在机制进行了理论方面的探讨, 然后通过构建的方式证明了带有 CoT 的自回归机器人可以解决基本算术方程问题和决策制定问题,并且具有动态编程方面的潜在应用。
May, 2023
通过对大型语言模型的内部机制进行机械性探索,我们发现大型语言模型在连续思考生成上部署多个并行路径,产生了顺序答案,并观察到模型中的功能分层差异,这是对连续思考推理进行机械性研究的首次尝试。
Feb, 2024
认知过程中的链式思维推理引起了人工智能和自然语言处理领域的广泛关注,然而目前还缺乏一个全面的调查。为此,我们首次全面调查了这一研究领域,按照方法分类系统地组织了当前的研究,包括思维推理方式、思维推理结构变体和增强思维推理。此外,我们还描述了思维推理的前沿应用,包括规划、工具使用和提炼。我们还讨论了面临的挑战和一些未来方向,如忠实度、多模式和理论。我们希望这项调查能成为链式思维推理领域研究者寻求创新的宝贵资源。
Sep, 2023
通过进行实验案例研究并将结果与机器学习中的样本和计算复杂性联系起来,我们发现如果问题可以分解成一系列推理步骤,并且学习预测下一步具有较低的样本和计算复杂性,明确列出推理链与预测下一步所需的所有必要信息可能会改善性能,相反,对于计算复杂的问题,采用树状推理可能比尝试形成简短的推理链更好地产生推理结果。
Apr, 2024
Chain-of-Thought 提示可以增强大型语言模型(LLMs)的推理能力,现有的 CoT 综合方法针对简单推理任务,导致 CoT 提示的质量低且不一致。为了应对这一挑战,我们进行了 CoT 提示的实证研究并引入了 CoTGenius,一个用于自动生成优质 CoT 提示的新框架。我们进一步采用 CoTGenius 创建了一个广泛的 CoT 数据集,并在该数据集上对 Llama 2-Chat 7B 和 13B 模型进行了微调,得到了 ChainLM 模型。为了解决推理步骤中的累积误差问题,我们提出了一种步骤级辩论方法,其中多个辩论者讨论每个推理步骤,得出正确答案。大量实验证明,与现有模型相比,我们的 ChainLM 模型在解决一系列复杂推理问题方面表现出更高的熟练度。此外,我们对 CoTGenius 中的数据类别对模型性能的影响进行了深入分析。我们在此 https URL 上发布了我们的数据集和代码。
Mar, 2024
本研究通过一种自洽的跨语言提示机制,提出了一种跨语言多步推理方法,可以在不同语言中实现多步推理路径,从而达到解决复杂推理任务的目的,并在实验评估中表现出比现有提示方法更优的性能。
Nov, 2023