Aug, 2024

大型语言模型也会幻觉图:一种结构视角

TL;DR本研究探讨了大型语言模型(LLMs)在生成图形时的幻觉现象,特别是它们在回答著名图形问题时产生的不准确输出。文章提出了一种新的衡量指标——图形图谱距离,以评估这些幻觉的广度,从而为分类和理解LLMs的输出提供了新视角。研究结果显示,LLMs产生的这些结构性幻觉可以丰富我们对其输出性能的理解。