Tab-CoT: 零样本表格思维链
通过分析在不同设置下的 CoT 方法,从 Hopfieldian 视角提出了 Read-and-Control 方法,通过广泛实验验证了该框架对于理解 CoT、识别推理错误和控制正确推理路径的能力。
Jun, 2024
链式思维提示可以引导语言模型进行复杂的多步推理。我们提出了一种考虑演示模式多样性的提示方法,通过在中间步骤中结合步长和推理过程等模式,有效地缓解由演示引起的偏差问题并实现对不同场景的更好泛化。我们在两个开源 LLM 模型上进行了九个推理基准任务的实验,结果表明我们的方法大大提高了推理性能,并且对错误表现出鲁棒性。代码将公开提供。
Apr, 2024
通过使用自动探索的 CoT prompt 对多个 LLMs 进行无监督语言生成,我们发现将该 prompt 应用于最新的 GPT-4 模型是最优的。
May, 2023
本论文研究了 Chain-of-Thought 提示对大型语言模型的多步推理能力的影响,发现即使使用无效的推理步骤,其提示也能达到 80-90% 的性能,并探究了其他理性方面的影响。
Dec, 2022
使用混合任务场景中的元推理链 (Meta-CoT) 提示方法,构建来自相应数据池的多样化演示,可同时在十个公共基准推理任务上表现出卓越的性能和优越的泛化能力。
Oct, 2023
本论文提出一种基于链式推理的自动提问方法 Auto-CoT,通过采样具有多样性的问题并生成推理链来构建演示,在十项公共基准推理任务中,Auto-CoT 不断匹配或超越需要手动设计演示的 CoT 范例的性能。
Oct, 2022
大语言模型通过应用无需预先训练的思维链式促进方法展示了卓越的表现,并展示了出色的推理能力。本文介绍了一种新的零样本促进方法,利用进化算法为大语言模型动态生成多样的促进方式,通过选择适合的促进方式提高模型的理解能力。详细实验结果表明,相较于当前的零样本推理方法,在 GPT-3.5-turbo 和 GPT-4 上,我们的方法表现出更优越的性能。此外,深入的分析实验突显了本方法在各种推理任务中的适应性和有效性。
Feb, 2024
该论文提出了 Visual CoT,一种利用多模态大型语言模型(MLLMs)的推理能力的新型流程,通过结合可解释性认知链条(CoT)推理来处理复杂的视觉输入,并提供可解释的思路。我们收集并引入了 Visual CoT 数据集,该数据集包含 373k 个问题 - 答案对,通过中间边界框突出显示回答问题所必要的关键区域,能够评估在需要特定局部区域识别的场景中的 MLLMs 的性能。大量实验证明了我们的框架的有效性,并为更好的推理策略提供了启示。Visual CoT 数据集、基准和预训练模型可用于促进相关方向的进一步研究。
Mar, 2024