Mar, 2024

基于大型语言模型内部状态的非监督实时幻觉检测

TL;DRLLMs 出现的幻觉指的是 LLMs 产生的回应在逻辑上是连贯的,但事实上是不准确的。本文引入了一种名为 MIND 的无监督训练框架,利用 LLMs 的内部状态实时检测幻觉,无需手动注释,并提出了用于评估多个 LLMs 幻觉检测的新基准 HELM。我们的实验证明,MIND 在幻觉检测方面优于现有的最先进方法。