Sep, 2024

大型语言模型总会出现幻觉,我们需要与此共存

TL;DR本研究解决了大型语言模型(LLMs)中幻觉的不可避免性问题,强调幻觉不是偶然错误,而是这些系统固有的特性。通过引入“结构幻觉”概念,本论文表明幻觉源于LLM的基本数学和逻辑结构,指出无法通过架构改进或数据集增强完全消除幻觉,从而对现有观点提出挑战。