Oct, 2023

残差连接促进大型语言模型中的多步推理

TL;DR通过在问题提示中集成残差连接,Residual Connection Prompting (RESPROMPT) 有效地捕捉了多步骤推理中固有的复杂推理图,为开源的 LLaMA 模型系列在数学、顺序和常识推理的六个基准测试上显著提高了推理准确性,并在至少需要五个推理步骤的问题中相比最好的基于 Chain-of-thought (CoT) 的基准测试提高了 21.1% 和 14.3%。