大语言模型群体中社会规范的动态:自发出现、集体偏见与临界点
通过实验,本研究发现大型语言模型能够在一定程度上将自然语言描述的利他主义和自私行为转化为适当的行为,但在适应有条件回报的情况下存在局限性,特别是在社会困境的一般人类行为模式方面存在潜在限制。研究呼吁进一步探讨大型语言模型生成的代理在更广泛的社会困境中自动生成行为的因素,探讨模型架构、训练参数和各种合作伙伴策略对代理行为的影响,最终促进更符合人类价值和社会规范的人工智能系统的发展。
May, 2023
本研究探讨了大型语言模型(LLMs)在模拟人类群体动态方面的潜力,特别是在政治上充满挑战性的背景下。我们使用LLMs复制了党派群体智慧现象,扮演民主党和共和党角色进行结构化互动,评估代理人的回应如何通过社会影响来演变。我们的主要发现表明,扮演具体人物并且没有链式思考的LLM代理人与人类行为紧密一致,而有链式思考则损害了一致性。然而,将明确的偏见纳入代理人提示并不一定增强党派群体的智慧。此外,用人类数据对LLMs进行微调显示出实现类似人类行为的潜力,但存在过度拟合特定行为的风险。这些发现展示了在模拟人类群体现象时使用LLM代理人的潜力和局限性。
Nov, 2023
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了LLMs在模拟人类互动方面的局限性,特别关注LLMs在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM代理倾向于符合模型固有的社会偏见。这种倾向导致了行为模式的偏离,似乎偏离了人类之间已经确立的社会动力学规律。我们使用了一种自动自我微调方法来强化这些观察结果,该方法使我们能够操纵LLM内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。
Feb, 2024
最近的研究发现,由大型语言模型(LLMs)驱动的代理人具有模拟人类行为和社会动态的能力。我们通过三个案例研究揭示,即使在竞争环境中,LLM代理人也能够自发地建立合作关系。这一发现不仅展示了LLM代理人模仿人类社会中竞争与合作的能力,而且验证了计算社会科学的一个有前途的愿景。具体来说,它表明LLM代理人可以用来模拟人类社会交互,包括自发的合作,从而为社会现象提供洞察力。
Feb, 2024
通过模拟社交交互并对比全知与非全知的情况,我们的研究发现,尽管非全知模拟更贴近真实情景,但全知模拟所生成的角色在实现社交目标上更加成功。此外,我们证明从全知模拟中学习可以提高交互的表现自然度,但在合作情境中对目标的实现帮助有限。研究结果指出解决语言模型中的信息不对称仍然是一个基本的挑战。
Mar, 2024
对于大型语言模型(LLMs)作为人工社交代理的行为知之甚少,我们仍缺乏这些代理对简单社交刺激的反应的大量证据。在经典的博弈论实验中测试AI代理的行为为评估这些代理在原型社交环境中的规范和价值提供了有希望的理论框架。在本文中,我们研究了Llama2在与展现不同敌意水平的随机对手对抗迭代囚徒困境时的合作行为。我们引入了一种系统的方法来评估LLM理解游戏规则的能力以及其解析历史游戏日志进行决策的能力。我们进行了持续100轮的游戏模拟,并根据行为经济学文献中定义的维度分析了LLM的决策。我们发现,Llama2倾向于不主动背叛,但在对手将其背叛率降低至30%以下时,它会采取一种谨慎的合作方式,迅速转向一种既宽容又不报复的行为。与先前对人类参与者的研究相比,Llama2表现出更强的合作倾向。我们对LLMs在博弈理论场景中的研究方法是朝着使用这些模拟来指导LLM审核和对齐实践迈出的一步。
Jun, 2024
通过模拟代理社会,我们研究了大型语言模型(LLMs)和人工智能(AI)的发展给规模化计算社会科学研究带来的机会。我们的实验表明,LLMs具备建模复杂社会动态的能力,并可能复制塑造人类社会的力量。
Jun, 2024
本研究针对大语言模型(LLM)在多代理环境中相互作用的复杂性,特别是在严格的社会层次结构下的行为模式进行了深入探讨。通过模拟“监狱实验”的情境,发现模型在权力动态下的对话效果不一,并指出了目标设定对说服力的影响以及角色分配如何引发反社会行为。这些发现为大语言模型代理的发展及其社会影响的讨论提供了重要见解。
Oct, 2024