Feb, 2024

理解和修复 LLMs 中的组合推理

TL;DR我们的研究揭示了 LLMs 在复合推理任务中的失败根源,即大多数失败源于生成或利用不当的隐性推理结果。深入研究发现隐性推理结果确实存在于中间层,并在塑造最终明确推理结果中发挥因果作用,我们还发现多头自注意力模块是生成和利用隐性推理结果的关键。基于以上发现,我们开发了 CREME,一种轻量级方法,通过编辑定位的多头自注意力模块来修复复合推理中的错误。我们的实证证据证明了 CREME 的有效性,为自主持续提升语言模型中的复合推理能力铺平了道路。