我想要自由!大语言模型在社交等级下的反社会行为和说服能力
通过实验,本研究发现大型语言模型能够在一定程度上将自然语言描述的利他主义和自私行为转化为适当的行为,但在适应有条件回报的情况下存在局限性,特别是在社会困境的一般人类行为模式方面存在潜在限制。研究呼吁进一步探讨大型语言模型生成的代理在更广泛的社会困境中自动生成行为的因素,探讨模型架构、训练参数和各种合作伙伴策略对代理行为的影响,最终促进更符合人类价值和社会规范的人工智能系统的发展。
May, 2023
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
计算实验、基于代理模型、大语言模型、人形化和因果分析是本文的关键词,该研究综述了代理结构的历史发展和其与人工社会的结合,阐述了计算实验和大语言模型代理相互提供的优势,并讨论了该研究领域的挑战和未来趋势,为后续相关研究提供指导。
Feb, 2024
最近的研究发现,由大型语言模型(LLMs)驱动的代理人具有模拟人类行为和社会动态的能力。我们通过三个案例研究揭示,即使在竞争环境中,LLM代理人也能够自发地建立合作关系。这一发现不仅展示了LLM代理人模仿人类社会中竞争与合作的能力,而且验证了计算社会科学的一个有前途的愿景。具体来说,它表明LLM代理人可以用来模拟人类社会交互,包括自发的合作,从而为社会现象提供洞察力。
Feb, 2024
通过模拟社交交互并对比全知与非全知的情况,我们的研究发现,尽管非全知模拟更贴近真实情景,但全知模拟所生成的角色在实现社交目标上更加成功。此外,我们证明从全知模拟中学习可以提高交互的表现自然度,但在合作情境中对目标的实现帮助有限。研究结果指出解决语言模型中的信息不对称仍然是一个基本的挑战。
Mar, 2024
利用大型语言模型(LLMs),AI代理已经能够完成许多人类任务。使用最经典的大五人格定义,我们衡量LLMs在博弈论框架内进行协商的能力,以及衡量公平与风险概念的方法论挑战。模拟结果(n=1,500)显示基于不对称议题价值的领域复杂性增加会提高协议达成率,但降低了激进协商的剩余价值。通过梯度提升回归和Shapley解释器,我们发现高度的开放性、责任心和神经质与公平倾向有关;低和谐性和低开放性与理性倾向有关。低责任心与高毒性有关。这些结果表明LLMs可能具有默认公平行为的内置防护措施,但可以被“越狱”以利用同意的对手。我们还提供了关于如何设计谈判机器人的实用见解,并提供了一种基于博弈论和计算社会科学评估谈判行为的框架。
May, 2024
对于大型语言模型(LLMs)作为人工社交代理的行为知之甚少,我们仍缺乏这些代理对简单社交刺激的反应的大量证据。在经典的博弈论实验中测试AI代理的行为为评估这些代理在原型社交环境中的规范和价值提供了有希望的理论框架。在本文中,我们研究了Llama2在与展现不同敌意水平的随机对手对抗迭代囚徒困境时的合作行为。我们引入了一种系统的方法来评估LLM理解游戏规则的能力以及其解析历史游戏日志进行决策的能力。我们进行了持续100轮的游戏模拟,并根据行为经济学文献中定义的维度分析了LLM的决策。我们发现,Llama2倾向于不主动背叛,但在对手将其背叛率降低至30%以下时,它会采取一种谨慎的合作方式,迅速转向一种既宽容又不报复的行为。与先前对人类参与者的研究相比,Llama2表现出更强的合作倾向。我们对LLMs在博弈理论场景中的研究方法是朝着使用这些模拟来指导LLM审核和对齐实践迈出的一步。
Jun, 2024
本研究通过利用大型语言模型(LLM)代理作为行为策略研究的新方法,填补了模拟和实验之间的空白。研究发现,LLM代理的搜索行为和决策过程与人类相似,并且其模拟的“思维”表明,前瞻性思维更多的LLM代理更倾向于选择利用而非探索,以最大化财富。此方法为行为策略研究提供了新的视角和应用潜力。
Oct, 2024
本研究探讨了大语言模型(LLM)群体中社会规范的动态,解决了AI代理在互动中如何自发形成共享规范的问题。通过模拟互动,发现全球认可的社会规范能够自发产生,并揭示了即使个体无偏见,强烈的集体偏见也可以出现。此外,当少数致力于新规范的LLM群体达到临界规模时,能够有效推动社会变革。这表明AI系统能够在没有明确编程的情况下自主发展规范,具有重要的应用价值。
Oct, 2024