Jun, 2023
使用带标记的上下文提示捕捉 LLM 幻觉
Trapping LLM Hallucinations Using Tagged Context Prompts
Philip Feldman, James R. Foulds, Shimei Pan
TL;DR本文提出了一种新颖的方法来识别和标记 LLMs perform out of knowledge 的情况,并确保用户获得准确的信息。通过使用上下文和嵌入标签,可以成功地消除生成语言模型中的幻觉。在对测试生成引擎的问题提示进行上下文基线幻觉频率时,观察到了整体幻觉的显着减少。