Dec, 2023
DelucionQA: 领域特定问答中的幻觉检测
DelucionQA: Detecting Hallucinations in Domain-specific Question
Answering
TL;DR大型语言模型(LLM)生成的文本中存在幻觉现象,通过信息检索来减少幻觉数量,但仍存在各种原因导致幻觉产生。为了促进这个方向的研究,我们引入了一个复杂的数据集DelucionQA,用于捕捉检索增强LLM在特定领域的问答任务中所产生的幻觉,并提出了一系列幻觉检测方法作为未来研究的基准。分析和案例研究还提供了有关目标场景中幻觉现象的宝贵见解。