LLM代理人是否表现出社会行为?
通过实验,本研究发现大型语言模型能够在一定程度上将自然语言描述的利他主义和自私行为转化为适当的行为,但在适应有条件回报的情况下存在局限性,特别是在社会困境的一般人类行为模式方面存在潜在限制。研究呼吁进一步探讨大型语言模型生成的代理在更广泛的社会困境中自动生成行为的因素,探讨模型架构、训练参数和各种合作伙伴策略对代理行为的影响,最终促进更符合人类价值和社会规范的人工智能系统的发展。
May, 2023
NLP系统在多智能体社会中能够模拟人类协作智能吗?本文通过实验和理论结合,研究了当代NLP系统之间的协作机制,发现使用不同的社交行为,从积极辩论到内省反思,LLM代理能够高效完成任务,并表现出类似人类的社交行为,这为LLM的协作机制提供了进一步的研究启示。
Oct, 2023
计算实验、基于代理模型、大语言模型、人形化和因果分析是本文的关键词,该研究综述了代理结构的历史发展和其与人工社会的结合,阐述了计算实验和大语言模型代理相互提供的优势,并讨论了该研究领域的挑战和未来趋势,为后续相关研究提供指导。
Feb, 2024
通过模拟社交交互并对比全知与非全知的情况,我们的研究发现,尽管非全知模拟更贴近真实情景,但全知模拟所生成的角色在实现社交目标上更加成功。此外,我们证明从全知模拟中学习可以提高交互的表现自然度,但在合作情境中对目标的实现帮助有限。研究结果指出解决语言模型中的信息不对称仍然是一个基本的挑战。
Mar, 2024
本研究针对大语言模型(LLM)在多代理环境中相互作用的复杂性,特别是在严格的社会层次结构下的行为模式进行了深入探讨。通过模拟“监狱实验”的情境,发现模型在权力动态下的对话效果不一,并指出了目标设定对说服力的影响以及角色分配如何引发反社会行为。这些发现为大语言模型代理的发展及其社会影响的讨论提供了重要见解。
Oct, 2024
本研究通过利用大型语言模型(LLM)代理作为行为策略研究的新方法,填补了模拟和实验之间的空白。研究发现,LLM代理的搜索行为和决策过程与人类相似,并且其模拟的“思维”表明,前瞻性思维更多的LLM代理更倾向于选择利用而非探索,以最大化财富。此方法为行为策略研究提供了新的视角和应用潜力。
Oct, 2024
本研究旨在解决对大型语言模型(LLM)代理行为的理解不足,探讨不同人格如何影响其利他行为,并与人类行为进行基准比较。研究发现,简单赋予LLM人类身份并未能使其表现出人类相似的行为,且不同模型在行为上的不一致性和与人类的显著差异表明,这些AI代理无法准确预测人类决策,影响因素复杂多变。
Oct, 2024
本研究解决了当前大型语言模型(LLMs)在人类认知和行为模拟方面的能力评估和应用问题。通过深入分析人类中心的LLM功能,这篇调查揭示了这些模型在认知、决策和社会互动任务中的表现,并指出了提升其适应性、情感智能和文化敏感性等未来研究方向,强调了此领域发展的重要性与潜力。
Nov, 2024
本研究针对大型语言模型(LLMs)在模拟人类认知和行为方面的能力进行调查,分析其在个体和集体任务中的表现,以及在行为科学、政治科学和社会学等人本领域的应用。研究揭示了LLMs在模仿人类行为的有效性,同时指出了其适应性、情感智能与文化敏感性等方面的挑战,为未来的研究方向提供了启示。
Nov, 2024
本研究针对大型语言模型(LLMs)在模拟人类认知与行为方面的能力进行了全面调查,解决了这一领域的关键问题。论文提出了人类中心的评估框架,并分析了LLMs在心理学、政治学和社会学等领域应用的有效性,发现它们在复制人类行为与互动方面展现出良好潜力,同时识别出可改善的挑战与未来研究方向。
Nov, 2024