Sep, 2024

实际代码生成中的LLM幻觉:现象、机制与缓解

TL;DR本研究应对大型语言模型(LLMs)在实际代码生成中常出现的幻觉现象,特别是在复杂上下文依赖的场景下。通过对六种主流LLM的代码生成结果进行手动分析,建立了LLM生成代码的幻觉分类法,并提出了一种基于RAG的缓解方法,显示出在所有研究的LLM中都有一致的有效性。此研究为理解和改善代码生成过程中的幻觉现象提供了重要贡献。