ANAH-v2: 大规模语言模型的分析幻觉注释扩展
该论文提出了AutoHall方法,通过自相矛盾的方式自动构建模型特定的幻觉数据集,然后基于这些数据集实现了无资源和黑盒幻觉检测方法,对开源和闭源大型语言模型进行了实验证明,在幻觉检测性能上优于现有基准模型,并且发现了不同模型之间的幻觉比例和类型的差异。
Sep, 2023
提出了一个使用自然语言推理链 (CoNLI) 来进行幻觉检测和幻觉减少的层次性框架,通过后期编辑来减少幻觉生成,从而提升文本质量。该框架在幻觉检测方面取得了最先进的性能,并在不进行微调或特定领域提示工程的情况下,使用大型语言模型 (LLMs) 进行重写,展示出了在各种上下文中具有竞争力的性能。
Oct, 2023
大型语言模型(LLM)生成的文本中存在幻觉现象,通过信息检索来减少幻觉数量,但仍存在各种原因导致幻觉产生。为了促进这个方向的研究,我们引入了一个复杂的数据集DelucionQA,用于捕捉检索增强LLM在特定领域的问答任务中所产生的幻觉,并提出了一系列幻觉检测方法作为未来研究的基准。分析和案例研究还提供了有关目标场景中幻觉现象的宝贵见解。
Dec, 2023
我们通过探究模型生成的输入、输出和内部状态中的指标来检测大型语言模型生成中的幻觉,结果表明这些指标在幻觉生成和非幻觉生成之间存在差异,我们进一步通过训练二分类器使用这些指标作为输入特征来将模型生成划分为幻觉和非幻觉,此二分类器的AUROC值达到0.80,并且我们展示了先前的幻觉中的令牌可以预测随后的幻觉。
Dec, 2023
大语言模型倾向于生成多样的事实不准确的陈述,本文提出了一个新的任务-自动细粒度幻觉检测,并提出了一个涵盖六种层次定义的幻觉类型的综合分类法。通过引入一个新的基准测试以评估,我们的分析结果显示ChatGPT和Llama 2-Chat的输出中有60%和75%的幻觉,而其中大多数幻觉属于未被充分研究的类别。为了解决这个问题的初步步骤,我们训练了FAVA,一个通过精心设计的合成数据生成来检测和纠正细粒度幻觉的检索增强的语言模型。在我们的基准测试中,我们的自动和人工评估显示FAVA在细粒度幻觉检测方面明显优于ChatGPT,尽管还存在大量改进的空间。FAVA提供的修改还提高了语言模型生成文本的准确性,导致了5-10%的FActScore改进。
Jan, 2024
自然语言生成面临若干挑战,我们通过引入数据增强管道和投票集成来解决生成流畅但不准确以及过度依赖流畅度评测指标的问题。
Mar, 2024
通过在文本摘要中测量语义框架、话述和内容可验证性中的细粒度错误,我们提出了第一个主动学习框架来减轻LLM幻觉,减少对幻觉错误的昂贵人工注释。经过对三个数据集和不同主干模型的广泛实验,我们的方法在有效和高效地减轻LLM幻觉方面具有优势。
Apr, 2024
减少大型语言模型的“幻觉”问题对其广泛应用非常关键。本论文提出了ANAH数据集,对生成式问答中语言模型的“幻觉”进行了精细的测量与注释,并通过实验验证了ANAH训练的生成式标注模型在细粒度幻觉注释方面的优势,表现超过目前的开源大型语言模型和GPT-3.5,与GPT-4的性能竞争,对于未知问题具有更好的泛化能力。
May, 2024
通过使用名为RelD的鲁棒性判别器,本文提出了一种有效检测大型语言模型中幻觉问题的方法,并在构建的RelQA双语问答对话数据集上进行了训练。实验结果表明,该方法成功检测到了由不同大型语言模型生成的幻觉回答,且能够区分内部和外部分布数据集中的幻觉问题。此研究为可靠答案的检测做出了重要贡献,并对未来幻觉问题的缓解具有显著的意义。
Jul, 2024
该研究解决了大型语言模型中幻觉问题,即生成不准确内容的挑战,并指出现有方法的不足。论文提出THaMES,一个综合框架,能够自动生成测试集并评估幻觉的减轻效果,通过多种策略优化模型能力,结果表明商用模型在特定情况下更依赖不同的减轻策略,且参数高效微调显著提升模型表现。
Sep, 2024