用分治程序引导大型语言模型进行问题解决
我们提出一种将问题分解为问题分解阶段和问题解决阶段的策略,并证明该策略能够优于单阶段解决方案。通过在结合问题解决 LLMs 的同时利用较小的问题分解模型,我们能够实现具有高效推理和局部适应性的推理。
Feb, 2024
使用 MathDivide 提示技术将数学问题分解为简单的子问题,由大语言模型生成相应的 Python 代码来评估代数表达式的值,并根据子问题的解组合得出最终答案,结果表明 MathDivide 显著优于领先的提示技术 Math-prompter。
May, 2024
引入 DaSLaM,使用分解生成器将复杂问题分解为需要更少推理步骤的子问题,由求解器回答。我们的方法在多个不同推理数据集上进行评估,表明 1750 亿参数 LM(text-davinci-003)可以产生与规模更大的 GPT-4 相比具有竞争力甚至更好的性能。
Oct, 2023
提出了一种名为 MathPrompter 的技术,它使用 Zero-shot chain-of-thought 提示技术生成多个代数表达式或 Python 函数,并以不同的方式解决相同的数学问题,从而提高模型在算术问题上的性能并提高置信水平。
Mar, 2023
利用大语言模型在现代教育领域创新的机会,通过研究提问型大语言模型、语法错误解释和人力资源面试评估,揭示了大语言模型在改变教育实践中的潜力和限制。
May, 2024
通过挖掘 StackOverflow 帖子中的实际自然语言到代码任务来创建一个数据集,该论文提出了一种以聚类选择为基础的提示技术来确定在 LLMs 提示中包含多少数据以及选择哪些数据,并通过实验表明 LLM 的性能确实对提示中所传递的数据量敏感,对于输入表中存在大量语法变化的任务,聚类选择技术优于随机选择基准模型。
Feb, 2024
本论文介绍了一种新颖的方法,使用大型语言模型来读取自然语言问题并生成程序作为中间推理步骤,但将求解步骤委托给运行时,如 Python 解释器,在 13 个数学、符号和算法推理任务中展示了神经大型语言模型和符号解释器之间的协同作用。
Nov, 2022
提出了分解提示法(Decomposed Prompting)的方法,通过将复杂任务分解成简单的子任务来解决复杂任务,并且可以针对每个子任务优化其专用提示,进一步分解复杂任务并取得更好的性能,特别是在符号推理任务和多步推理任务中。
Oct, 2022
本文研究了大型语言模型(LLMs)的能力,特别关注于推进链式思维提示的理论理解。我们探究了如何有效诱导 LLMs 生成连贯的思维链条。为实现此目标,我们引入了一个适用于自然语言生成的两级分层图模型。在这一框架下,我们建立了一个具有吸引力的几何收敛率,用于衡量 LLMs 生成的思维链条与真实语言起源的思维链条之间的相似度。我们的发现为 LLMs 能够产生正确的思维序列提供了理论上的证明(潜在地)解释了在需要推理技能的任务中性能提升的原因。
Oct, 2023