大型语言模型中的 (非) 理性和认知偏差
大型语言模型在推理任务中表现出色,但是它们的推理能力深度尚不确定。本文通过综述超越任务准确性的研究,深入探讨模型的推理过程,并调查评估语言模型推理行为的方法,发现其依赖于训练数据的表面模式和相关性,而非真正的推理能力。同时,我们指出需要进一步研究人类推理与语言模型推理之间的关键差异。通过此综述,我们旨在揭示大型语言模型内部复杂的推理过程。
Apr, 2024
这项研究引入了一种新的框架,金融偏见指标(FBI),来对大型语言模型(LLMs)的金融合理性进行评估,重点是它们辨识和应对金融信息中微妙之处的能力,以及发现可能会偏向市场分析的非理性偏见。研究采用创新方法来衡量金融合理性,整合行为金融学的原则来审视 LLMs 的偏见和决策模式,并对 19 个主要 LLMs 进行全面评估,结果显示模型之间存在不同程度的金融非理性,受到设计和训练的影响。这项研究丰富了我们对 LLMs 在金融应用中的优势和弱点的认识,为开发更可靠和理性的金融分析工具奠定了基础。
Feb, 2024
通过对大型语言模型(LLM)和人类的推理进行比较,本研究使用传统的认知心理学工具调查和比较它们的表现,结果显示大部分模型呈现了类似于人类具有错误倾向、启发式推理的推理错误,然而,深入比较发现最近的 LLM 版本在与人类推理的区别方面存在重要差异且模型的局限性在新版 LLM 中几乎完全消失,此外,我们还表明,虽然有可能设计策略以提高模型的性能,但人类和机器对相同的提示方案的响应并不相同,最后我们讨论了比较人类和机器行为在人工智能和认知心理学领域中的认识论意义和挑战。
Sep, 2023
大型语言模型能够在缺乏任务特定监督的情况下生成流畅的文本,但其在具有知识密集型任务中提供有根据的解释的能力仍未得到充分探索。我们通过使用专家编写的几个样本,以少量样本的方式生成基于知识的解释来解决这一问题。通过研究发现,众包工作者更喜欢基于知识的解释,因为它们具有实际性、充分性和全面的反驳。虽然大型语言模型生成的解释更受欢迎,但需要进一步提高简明性和新颖性。另外,我们还展示了错误模型预测的解释如何削弱人类对大型语言模型生成的解释的信任。基于这些观察的动机,我们创建了一个两阶段的流程,在生成解释之前审查任务预测并消除潜在的错误决策,以实现可信赖的解释生成。
Nov, 2023
AI 系统需要理解我们的决策方式以便与人类有效沟通,然而人类的决策并不总是理性的,因此大型语言模型(LLMs)中的人类决策的隐性内部模型必须考虑这一点。先前的实证证据似乎表明这些隐性模型是准确的,LLMs 在日常互动中呈现出了人类行为的可信代理。然而,通过将 LLM 的行为和预测与大量人类决策的数据集进行比较,我们发现情况实际上并非如此:在模拟和预测人类选择时,一套尖端的 LLMs(GPT-4o 和 4-Turbo,Llama-3-8B 和 70B,Claude 3 Opus)假设人们比实际更理性。具体而言,这些模型偏离了人类行为,更接近于经典的理性选择模型 - 预期值理论。有趣的是,人们在解释他人行为时也倾向于假设他人是理性的。因此,当我们使用另一个心理学数据集比较 LLMs 和人类从他人决策中得出的推理时,我们发现这些推理之间高度相关。因此,LLMs 的隐性决策模型似乎与人类预期他人会理性行事的期望相一致,而不是与人们实际行动相一致。
Jun, 2024
该研究介绍了一个假设检验框架,用于评估大型语言模型(LLMs)是否具有真正的推理能力,还是主要依赖于令牌偏差。我们超越准确性的评估,旨在调查 LLMs 在解决逻辑推理任务时的令牌偏差。具体而言,我们开发了精心控制的合成数据集,其中包括合取谬误和演绎问题。我们的框架概述了一系列假设,其中令牌偏差很容易被识别,所有零假设均假设 LLMs 具有真正的推理能力。本研究的发现以统计保证表明,多数 LLMs 在逻辑推理方面仍然有困难。尽管它们在经典问题上表现出色,但它们的成功主要依赖于识别带有强烈令牌偏差的表面模式,因此引发了对其实际推理和泛化能力的担忧。
Jun, 2024
大型语言模型(LLMs)的发展促使人们对其推理和问题解决能力产生了更大的兴趣。本研究调查了几种 LLMs 是否能够解决认知科学文献中一种经典类型的演绎推理问题。研究发现,这些被测试的 LLMs 在传统形式上解决这些问题的能力有限。我们进行了后续实验,探究了更改展示格式和内容是否能改善模型性能。尽管我们发现了条件之间的绩效差异,但总体性能并未提高。此外,我们还发现性能与展示格式和内容以出人意料的方式相互作用,与人类表现有所不同。总的来说,我们的结果表明 LLMs 具有独特的推理偏见,其只能部分预测人类的推理表现。
Sep, 2023
通过对大型语言模型的研究,我们发现它们在逻辑推理方面存在缺陷,导致其在任务解决中产生反事实的答案。为了解决这个问题,我们提出了多种策略,赋予大型语言模型逻辑推理能力,从而使其能够在不同场景中生成更符合逻辑的答案。我们还通过构建一个综合数据集 (LMM-LR) 对该方法进行了评估和预训练。在不同任务上进行了广泛的定量和定性分析,验证了通过逻辑训练大型语言模型的有效性和必要性,并为将来的工作提供了启示。
Oct, 2023
运用大型语言模型(LLMs)作为认知模型的兴趣日益增加,本研究通过研究 LLMs 在解决算术问题时与儿童的认知偏差,得出结论:LLMs 在文本理解和解决方案规划步骤中表现出类似人类的偏差,但在解决方案执行过程中没有类似的偏差。
Jan, 2024
通过研究大型语言模型(LLMs)的决策过程中的偏见,本研究揭示了不同偏见在决策过程中的微妙作用,并发现合适的平衡可以提高模型性能、改善决策准确性。我们引入了启发式调节和弃权选项的概念,并通过我们的研究结果表明,恰当缩放的偏见检查能够使 LLMs 的决策更符合人类的推理,提高其可靠性和值得信赖性,从而为未来的改进提供了新的策略。
Jun, 2024