Jun, 2024

思维缓冲区: 利用大型语言模型进行思维增强的推理

TL;DR我们引入“思绪缓冲区”(Buffer of Thoughts,BoT),这是一种新颖而多用途的思绪增强推理方法,可提高大型语言模型(Large Language Models,LLMs)的准确性、效率和鲁棒性。通过引入元缓存器(meta-buffer)来存储一系列信息丰富的高级思维模板,我们能够从各种任务的问题解决过程中抽取思维模板。然后,对于每个问题,我们检索相关的思维模板,并灵活地用具体的推理结构来实例化它,以进行高效的推理。为了保证可扩展性和稳定性,我们进一步提出了缓冲器管理器(buffer-manager)来动态更新元缓存器,从而增强元缓存器的容量以适应更多的任务。我们对10个具有挑战性的推理密集型任务进行了大量实验,与之前的最先进方法相比,取得了显著的性能改进:24点游戏提升11%、几何形状提升20%、以及一步将军提升51%。进一步分析显示了我们的BoT具有优越的泛化能力和模型鲁棒性,而平均只需要多查询提示方法的12%成本(例如,思维树/图)。值得注意的是,我们发现我们的Llama3-8B+BoT具有超越Llama3-70B模型的潜力。我们的项目网址为:https://example.com