人工利维坦:通过霍布斯社会契约理论探索LLM代理人的社会进化
通过实验,本研究发现大型语言模型能够在一定程度上将自然语言描述的利他主义和自私行为转化为适当的行为,但在适应有条件回报的情况下存在局限性,特别是在社会困境的一般人类行为模式方面存在潜在限制。研究呼吁进一步探讨大型语言模型生成的代理在更广泛的社会困境中自动生成行为的因素,探讨模型架构、训练参数和各种合作伙伴策略对代理行为的影响,最终促进更符合人类价值和社会规范的人工智能系统的发展。
May, 2023
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
计算实验、基于代理模型、大语言模型、人形化和因果分析是本文的关键词,该研究综述了代理结构的历史发展和其与人工社会的结合,阐述了计算实验和大语言模型代理相互提供的优势,并讨论了该研究领域的挑战和未来趋势,为后续相关研究提供指导。
Feb, 2024
最近的研究发现,由大型语言模型(LLMs)驱动的代理人具有模拟人类行为和社会动态的能力。我们通过三个案例研究揭示,即使在竞争环境中,LLM代理人也能够自发地建立合作关系。这一发现不仅展示了LLM代理人模仿人类社会中竞争与合作的能力,而且验证了计算社会科学的一个有前途的愿景。具体来说,它表明LLM代理人可以用来模拟人类社会交互,包括自发的合作,从而为社会现象提供洞察力。
Feb, 2024
通过模拟社交交互并对比全知与非全知的情况,我们的研究发现,尽管非全知模拟更贴近真实情景,但全知模拟所生成的角色在实现社交目标上更加成功。此外,我们证明从全知模拟中学习可以提高交互的表现自然度,但在合作情境中对目标的实现帮助有限。研究结果指出解决语言模型中的信息不对称仍然是一个基本的挑战。
Mar, 2024
通过Governance of the Commons Simulation(GovSim)仿真平台,研究了大型语言模型在资源共享中的战略互动和合作决策,发现了在模型共享资源管理能力方面存在的巨大差距,并强调了沟通的重要性。
Apr, 2024
大规模语言模型与基于代理的仿真的整合对于理解复杂社会系统具有变革潜力,本文探讨了系统开发LLM增强的社会仿真的架构和方法,并讨论了该领域的潜在研究方向。结论表明,将LLM与基于代理的仿真相结合为研究人员和科学家提供了强大的工具集,能够生成更细致、逼真和全面的复杂系统和人类行为模型。
May, 2024
对于大型语言模型(LLMs)作为人工社交代理的行为知之甚少,我们仍缺乏这些代理对简单社交刺激的反应的大量证据。在经典的博弈论实验中测试AI代理的行为为评估这些代理在原型社交环境中的规范和价值提供了有希望的理论框架。在本文中,我们研究了Llama2在与展现不同敌意水平的随机对手对抗迭代囚徒困境时的合作行为。我们引入了一种系统的方法来评估LLM理解游戏规则的能力以及其解析历史游戏日志进行决策的能力。我们进行了持续100轮的游戏模拟,并根据行为经济学文献中定义的维度分析了LLM的决策。我们发现,Llama2倾向于不主动背叛,但在对手将其背叛率降低至30%以下时,它会采取一种谨慎的合作方式,迅速转向一种既宽容又不报复的行为。与先前对人类参与者的研究相比,Llama2表现出更强的合作倾向。我们对LLMs在博弈理论场景中的研究方法是朝着使用这些模拟来指导LLM审核和对齐实践迈出的一步。
Jun, 2024
本研究针对大语言模型(LLM)在多代理环境中相互作用的复杂性,特别是在严格的社会层次结构下的行为模式进行了深入探讨。通过模拟“监狱实验”的情境,发现模型在权力动态下的对话效果不一,并指出了目标设定对说服力的影响以及角色分配如何引发反社会行为。这些发现为大语言模型代理的发展及其社会影响的讨论提供了重要见解。
Oct, 2024
本研究探讨了大语言模型(LLM)群体中社会规范的动态,解决了AI代理在互动中如何自发形成共享规范的问题。通过模拟互动,发现全球认可的社会规范能够自发产生,并揭示了即使个体无偏见,强烈的集体偏见也可以出现。此外,当少数致力于新规范的LLM群体达到临界规模时,能够有效推动社会变革。这表明AI系统能够在没有明确编程的情况下自主发展规范,具有重要的应用价值。
Oct, 2024