通过基于扰动的合成数据生成,提高系统响应中的幻觉检测能力
通过引入一种名为【自我检测】的新技术,本研究提出了一种预防性策略来减少大型语言模型中的“幻觉”现象,实验证明该技术在幻觉检测方面表现优异,对于提高语言助手的可靠性、适用性和解释性具有重要意义。
Sep, 2023
该论文提出了AutoHall方法,通过自相矛盾的方式自动构建模型特定的幻觉数据集,然后基于这些数据集实现了无资源和黑盒幻觉检测方法,对开源和闭源大型语言模型进行了实验证明,在幻觉检测性能上优于现有基准模型,并且发现了不同模型之间的幻觉比例和类型的差异。
Sep, 2023
大语言模型倾向于生成多样的事实不准确的陈述,本文提出了一个新的任务-自动细粒度幻觉检测,并提出了一个涵盖六种层次定义的幻觉类型的综合分类法。通过引入一个新的基准测试以评估,我们的分析结果显示ChatGPT和Llama 2-Chat的输出中有60%和75%的幻觉,而其中大多数幻觉属于未被充分研究的类别。为了解决这个问题的初步步骤,我们训练了FAVA,一个通过精心设计的合成数据生成来检测和纠正细粒度幻觉的检索增强的语言模型。在我们的基准测试中,我们的自动和人工评估显示FAVA在细粒度幻觉检测方面明显优于ChatGPT,尽管还存在大量改进的空间。FAVA提供的修改还提高了语言模型生成文本的准确性,导致了5-10%的FActScore改进。
Jan, 2024
大型语言模型(如ChatGPT、Bard和Llama)在不同领域的应用中取得了显著的成功。然而,虚假生成是限制其广泛应用的关键问题。本报告意在综述虚假生成检测和虚假生成减轻的现有文献,旨在为对大型语言模型和将其应用于实际任务感兴趣的工程师和研究人员提供参考。
Jan, 2024
自然语言生成面临若干挑战,我们通过引入数据增强管道和投票集成来解决生成流畅但不准确以及过度依赖流畅度评测指标的问题。
Mar, 2024
通过多个数据集和大型语言模型,包括Llama-2,对该模型的幻觉水平进行广泛评估,并展示了我们的方法在自动检测幻觉方面的有效性,达到了87%的平衡准确率,而无需依赖外部知识。
Mar, 2024
LLMs出现的幻觉指的是LLMs产生的回应在逻辑上是连贯的,但事实上是不准确的。本文引入了一种名为MIND的无监督训练框架,利用LLMs的内部状态实时检测幻觉,无需手动注释,并提出了用于评估多个LLMs幻觉检测的新基准HELM。我们的实验证明,MIND在幻觉检测方面优于现有的最先进方法。
Mar, 2024
本文探讨了四个大型语言模型(LLMs)(Llama 3、Gemma、GPT-3.5 Turbo和GPT-4)在幻觉生成和检测任务中的能力,并采用集成多数投票的方法将所有四个模型应用于检测任务,结果对于了解这些模型在处理幻觉生成和检测任务中的优势和不足具有有价值的见解。
Jul, 2024
本研究针对幻觉检测中的任务特定合成数据不足问题,提出了一种新颖的自动生成方法。通过采用幻觉模式引导和语言风格一致性对生成过程进行优化,研究表明所生成的合成文本与真实文本的对齐更好,从而提高幻觉探测器的泛化能力,检测效果比现有方法高出32%。
Oct, 2024
本文针对大型语言模型(LLMs)生成的逻辑连贯但事实不正确的回复(即幻觉现象)进行研究,旨在提高现有监督检测器在不同领域的跨领域表现。我们提出了一种新颖的框架PRISM,通过适当的提示引导LLMs内部状态中与文本真实性相关的结构变化,从而提高其在不同领域文本中的显著性和一致性。实验结果表明,该框架显著增强了现有幻觉检测方法的跨领域泛化能力。
Nov, 2024