Nov, 2024

基于提示引导的内部状态用于大型语言模型的幻觉检测

TL;DR本文针对大型语言模型(LLMs)生成的逻辑连贯但事实不正确的回复(即幻觉现象)进行研究,旨在提高现有监督检测器在不同领域的跨领域表现。我们提出了一种新颖的框架PRISM,通过适当的提示引导LLMs内部状态中与文本真实性相关的结构变化,从而提高其在不同领域文本中的显著性和一致性。实验结果表明,该框架显著增强了现有幻觉检测方法的跨领域泛化能力。