表示很重要:使用动态模态分解嵌入大型语言模型的方式
这篇论文通过深入探讨大型语言模型在幻觉方面的行为,定义了一种基于标记的方法以识别不同类型的幻觉,并进一步利用这种标记方法提高对话摘要任务中语言模型的可解释性和忠实度,同时提出了一个新的改进数据集和训练范式。
Dec, 2023
综述着重从细致的分类及持盾人儿的划分、评估基准和减轻方式中就多模式大型语言模型(MLLMs)中产生幻觉的原因进行分析,旨在加深对 MLLMs 中幻觉的理解,并激发该领域的进一步发展。
Apr, 2024
Dynamic Mode Decomposition (DMD) 是一种流行的数据驱动分析技术,用于将复杂的非线性系统分解成一组模式,通过谱分析揭示底层的模式和动态特性。本综述全面而系统地研究了 DMD,强调了 Koopman 算子在将复杂非线性动力学转化为线性框架中的作用。我们将 DMD 方法的多元宇宙分类为三个主要领域:线性回归方法、Galerkin 逼近和保结构技术,并研究了每个类别在谱计算中的独特贡献和挑战。该综述通过实例和应用程序提供了 MATLAB 包,以加强对这些方法的实际理解。这项研究作为对各种 DMD 方法的实用指南和理论参考,既适用于专家也适用于新手,并使读者能够深入研究他们在广阔的 DMD 领域中感兴趣的领域。
Nov, 2023
通过将动态模分解(Dynamic mode decomposition,DMD)与多分辨率分析相结合,本文提出了一种分解方法,可以将复杂系统分解成一系列多分辨率时间尺度组件,从而有效解决动力学数据分离等问题,并且在多尺度动态数据的示例数据上展示了其出色的分解结果。
Jun, 2015
本研究提出了一种新的方法来增强多模式大型语言模型的可解释性,通过专注于图像嵌入组件。我们将开放世界定位模型与多模式大型语言模型相结合,从而创建一个能够同时产生文本和物体定位输出的新架构。提出的架构极大地促进了可解释性,使我们能够设计一种新的显著性图以解释任何输出标记,识别模型幻觉,并通过语义对抗扰动评估模型的偏见。
May, 2024
在这份调查中,我们旨在对大型语言模型(LLM)幻像领域的最新进展进行全面而深入的概述。我们从 LLM 幻像创新分类入手,然后深入探讨了导致幻像的因素。接下来,我们全面介绍了幻像检测方法和基准。此外,我们还相应介绍了用于减轻幻像的代表性方法。最后,我们分析了突出当前限制的挑战,并制定了未来 LLM 幻像研究的开放问题,旨在描绘发展方向。
Nov, 2023
大型语言模型在回答事实性问题方面很成功,但也容易产生幻觉。我们通过推理动态的角度来调查 LLMs 拥有正确回答知识却仍然出现幻觉的现象,这是以往对幻觉研究中没有涉及的领域。通过两个关键思想,我们能够进行这种分析。首先,我们识别了查询相同三元知识但产生不同答案的实际问题。因此,模型在正确和错误输出上的行为差异提示了幻觉发生的模式。其次,为了测量这种模式,我们利用残差流到词汇空间的映射。我们揭示了在正确和幻觉案例之间,输出令牌概率在模型的不同层深度上的动态差异。在幻觉案例中,输出令牌的信息很少呈现出突然增加以及在模型的后期中始终表现出优势。利用动态曲线作为特征,我们构建了一个能够以 88% 的准确率准确检测幻觉预测的分类器。我们的研究揭示了理解 LLMs 在已知事实中产生幻觉的原因的启示,更重要的是,能够准确预测它们何时产生幻觉。
Mar, 2024
研究总结了最近对大型语言模型中的幻觉现象的有趣见解,提出了一个包含各种文本生成任务中幻觉的新颖分类法,以及理论洞察、检测方法和改进方法,并提出了若干未来的研究方向。
Sep, 2023