通过知识一致性对饱受大型语言模型幻觉困扰进行减轻
介绍一种名为 MixAlign 的框架,通过与用户和知识库的交互来消除语言模型生成虚假和不支持的响应。MixAlign 利用语言模型实现自动问题 - 知识对齐,并在必要时通过人工用户澄清来进一步增强对齐,从而缓解了语言模型幻觉问题,并在实验中取得了显著改进。
May, 2023
通过与大规模语言模型和数据集合作,本文分析了医学生成型问答系统中幻觉现象的问题,并提出了一种交互自我反思的方法来解决该挑战,最终实验证明该方法在幻觉减少方面优于基线模型。
Oct, 2023
通过使用知识探测、一致性检查和强化学习等方法,我们发现大型语言模型在辨别和表达其内部知识状态方面具有强大的自我意识,然而它们在生成过程中常常无法表达其内部知识,导致虚构。为此,我们提出了一种自动虚构注释工具,通过梦网,该工具将知识探测和一致性检查方法结合起来,以排名虚构偏好数据。通过使用知识偏好作为奖励,我们提出了一种从知识反馈中强化学习(RLKF)的训练框架,利用强化学习增强大型语言模型的真实性和诚实性。我们对多个模型进行的实验证明,RLKF 训练有效地增强了模型利用其内部知识状态的能力,在各种基于知识和诚实性的任务中提高了性能。
Jan, 2024
这篇论文综述了 32 种技术,旨在减轻大型语言模型中的幻觉问题,其中包括检索增强生成、知识检索、CoNLI 和 CoVe 等方法,并提出了基于数据集利用、常见任务、反馈机制和检索器类型等参数的分类方法,以区分专门设计用于解决大型语言模型幻觉问题的各种方法。此外,还分析了这些技术中存在的挑战和局限性,为未来研究提供了坚实的基础。
Jan, 2024
本文提出了 CoKE 方法,通过评估大型语言模型的知识边界,使其能够准确表达自己的知识边界,从而减少幻觉现象,显著提高在领域内和领域外的性能表现。
Jun, 2024
通过广泛系统实验,我们展示了传统方法无法解释 LLMs 在实践中为什么会产生幻觉,并通过大量内存专家的混合来增强 LLMs,可以轻松地记忆大数据集,为去除幻觉设计了 Lamini-1 模型。
Jun, 2024
知识图谱的积极运用可以有效减轻大型语言模型的虚构幻觉,本文提出了一种基于知识图谱的改进框架,通过将知识图谱与语言模型相结合,修改模型生成的初步回答,从而验证和完善其中的事实陈述,实验证明该框架在解决复杂推理过程中显著提高了语言模型在事实问答基准测试中的性能,有效减轻了虚构幻觉,增强了语言模型的可信度。
Nov, 2023