基于 LLM 的模仿次理性行为:幻觉还是现实?
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
大型语言模型(LLM)代理程序作为模拟人类行为的应用工具已经得到越来越广泛的应用,本文关注于研究 LLM 代理程序能否真正模拟人类的信任行为,通过对 LLM 代理程序在信任博弈框架下的行为模式以及与人类的行为一致性的研究,探究了代理程序对信任的偏好和对人类与代理程序之间的信任差异,并对信任在不同场景下的重要性提出了重要启示,从而推动了对 LLM 代理程序与人类之间行为类比的理解。
Feb, 2024
使用大型语言模型作为认知模型具有潜力,但需要解决多个重要挑战。本文提出了一种新颖的方法,通过利用计算等效任务和特定任务分布,增强大型语言模型作为决策模型的效用,并展示了在决策制定中的应用。结果表明,预训练大型语言模型在生态有效的算术数据集上可以更好地预测人类行为,显示了与传统认知模型之间的强关联。但将大型语言模型用作认知模型时,需要通过去除预训练数据的实验来进行详细研究。
May, 2024
AI 系统需要理解我们的决策方式以便与人类有效沟通,然而人类的决策并不总是理性的,因此大型语言模型(LLMs)中的人类决策的隐性内部模型必须考虑这一点。先前的实证证据似乎表明这些隐性模型是准确的,LLMs 在日常互动中呈现出了人类行为的可信代理。然而,通过将 LLM 的行为和预测与大量人类决策的数据集进行比较,我们发现情况实际上并非如此:在模拟和预测人类选择时,一套尖端的 LLMs(GPT-4o 和 4-Turbo,Llama-3-8B 和 70B,Claude 3 Opus)假设人们比实际更理性。具体而言,这些模型偏离了人类行为,更接近于经典的理性选择模型 - 预期值理论。有趣的是,人们在解释他人行为时也倾向于假设他人是理性的。因此,当我们使用另一个心理学数据集比较 LLMs 和人类从他人决策中得出的推理时,我们发现这些推理之间高度相关。因此,LLMs 的隐性决策模型似乎与人类预期他人会理性行事的期望相一致,而不是与人们实际行动相一致。
Jun, 2024
大语言模型是否能够忠实地模拟决策智能体的智能能力,本研究通过实证方法首次探讨了大语言模型在通过推理构建决策智能体的心智模型方面的能力,并提供了关于其对强化学习智能体行为的解释性约束方面的新见解。
Jun, 2024
本文首先以强化学习为基础,设计一个模型来模拟多人市场模拟中的交易代理。然后,将人类的次理性分为两种类型:心理偏见和计算能力问题,探讨了人类次理性对交易市场不同方面的影响。作者认为本研究将有助于进一步了解人类交易行为和行为金融学领域的发展。
Oct, 2022
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于 LLMs 的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于 LLMs 在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了 LLMs 在模拟人类互动方面的局限性,特别关注 LLMs 在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM 代理倾向于符合模型固有的社会偏见。这种倾向导致了行为模式的偏离,似乎偏离了人类之间已经确立的社会动力学规律。我们使用了一种自动自我微调方法来强化这些观察结果,该方法使我们能够操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。
Feb, 2024
利用大型语言模型作为替代人类参与游戏实验的工具来进行社会科学研究时,与人类行为高度一致的特点使其具备潜力,然而,尽管已经有大量关于大型语言模型与博弈论结合的实证研究,但大型语言模型在博弈论中的能力边界仍不清楚,因此我们试图在本研究中系统分析大型语言模型在博弈论背景下的表现,结果表明即使目前最先进的大型语言模型(GPT-4)与人类在博弈论方面存在显著差异,因此在社会科学领域引入大型语言模型进行游戏实验时应更加谨慎。
Dec, 2023
从理论角度出发,研究大型语言模型在物理世界中解决决策问题的原因,通过层次化强化学习模型,证明预先训练的大型语言模型规划器通过上下文学习有效地进行贝叶斯聚合模仿学习,并引入探索策略避免线性遗憾。扩展该理论框架应用于环境的过渡模型推断和多智能体协调等场景。
May, 2024