大型语言模型能模拟人类的信任行为吗?
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
利用大型语言模型(LLM)增强人工智能代理的人类行为模拟,通过引入两个度量标准(一致性和鲁棒性)以及基准 SimulateBench 评估常用 LLM 实现的代理的一致性和鲁棒性,发现代理在处理复杂输入和受到关键因素影响时存在困难,容易受到干扰。
Dec, 2023
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于 LLMs 的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于 LLMs 在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
利用大型语言模型生成合成的人类示范,然后通过模仿学习学习非理性主体策略,以此来模拟人类特征性的非理性行为,通过实验评估了该框架的模拟非理性行为的能力,并得出结论和讨论框架的潜在收益、挑战和限制。
Feb, 2024
通过整合从实证人类信念网络中提取的信息,本研究评估了如何改进基于人类行为的大型语言模型(LLM)与人类行为的一致性,结果表明在模拟和理解社会信念分布模式的工作中,将 LLM 代理与单一信念进行关联会显著提高对相关主题的一致性。
Jun, 2024
使用大型语言模型构建的用户搜索行为模拟器在查询生成方面优于现有方法,并在预测用户点击和停止行为方面可与传统方法媲美。这些结果不仅验证了使用大型语言模型进行用户模拟的有效性,还为更强大和通用的用户模拟器的开发提供了启示。
Mar, 2024
大规模语言模型与基于代理的仿真的整合对于理解复杂社会系统具有变革潜力,本文探讨了系统开发 LLM 增强的社会仿真的架构和方法,并讨论了该领域的潜在研究方向。结论表明,将 LLM 与基于代理的仿真相结合为研究人员和科学家提供了强大的工具集,能够生成更细致、逼真和全面的复杂系统和人类行为模型。
May, 2024
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了 LLMs 在模拟人类互动方面的局限性,特别关注 LLMs 在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM 代理倾向于符合模型固有的社会偏见。这种倾向导致了行为模式的偏离,似乎偏离了人类之间已经确立的社会动力学规律。我们使用了一种自动自我微调方法来强化这些观察结果,该方法使我们能够操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。
Feb, 2024
当前的研究论文测试了大型语言模型(LLMs)的可行性,作为人工代理人参与社会学实验中的对话活动,揭示了 LLMs 在辩论中的限制,以及其对人类的影响和能力。
Feb, 2024
大语言模型是否能够忠实地模拟决策智能体的智能能力,本研究通过实证方法首次探讨了大语言模型在通过推理构建决策智能体的心智模型方面的能力,并提供了关于其对强化学习智能体行为的解释性约束方面的新见解。
Jun, 2024