Mar, 2024
基于大型语言模型内部状态的非监督实时幻觉检测
Unsupervised Real-Time Hallucination Detection based on the Internal
States of Large Language Models
TL;DRLLMs出现的幻觉指的是LLMs产生的回应在逻辑上是连贯的,但事实上是不准确的。本文引入了一种名为MIND的无监督训练框架,利用LLMs的内部状态实时检测幻觉,无需手动注释,并提出了用于评估多个LLMs幻觉检测的新基准HELM。我们的实验证明,MIND在幻觉检测方面优于现有的最先进方法。