探索 LLM 代理的协作机制:社会心理学视角
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于 LLMs 的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于 LLMs 在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
我们提出了一种新型基础设施,名为 MindAgent,用于评估游戏交互中的规划和协调能力,并引入了新的游戏场景和相关基准,以评估多智能体协作效率。我们使用新的自动度量 CoS 进行全面评估。我们希望我们对大型语言语料库学习的 LLMs 以及用于通用调度和协调的新基础设施的发现能够揭示如何获取这些技能的一些见解。
Sep, 2023
研究使用大规模语言模型(LLMs)驱动的多 Agent 系统在协作中解决复杂任务的能力。主要考虑多 Agent 协作中的一个基本问题:共识寻求。通过 Agent 间的协商,研究了一个寻求共识的任务,其中每个 Agent 的状态是数字值,他们彼此协商达成共识值。发现,当没有明确指导应采用哪种策略时,LLM 驱动的 Agent 主要使用平均策略寻求共识,尽管偶尔也会使用其他策略。此外,分析了 Agent 数量、Agent 个性和网络拓扑对协商过程的影响。研究结果为理解 LLM 驱动的多 Agent 系统在解决更复杂任务方面的行为奠定了基础。除此之外,将 LLM 驱动的共识寻求应用于多机器人聚合任务,展示了 LLM 驱动的 Agent 在多机器人协作任务中实现零次规划的潜力。项目网址: westlakeintelligentrobotics.github.io/ConsensusLLM/。
Oct, 2023
研究论文介绍机器心理学作为一种新的研究领域,通过不同的心理学子领域设计行为测试以深入评估和分析大型语言模型的能力和特点,特别是关注快速设计的政策,并且描述如何解释发现在 LLMs 中的行为模式以发现传统自然语言处理基准无法检测到的新的能力
Mar, 2023
本研究探讨了大型语言模型(LLMs)在模拟人类群体动态方面的潜力,特别是在政治上充满挑战性的背景下。我们使用 LLMs 复制了党派群体智慧现象,扮演民主党和共和党角色进行结构化互动,评估代理人的回应如何通过社会影响来演变。我们的主要发现表明,扮演具体人物并且没有链式思考的 LLM 代理人与人类行为紧密一致,而有链式思考则损害了一致性。然而,将明确的偏见纳入代理人提示并不一定增强党派群体的智慧。此外,用人类数据对 LLMs 进行微调显示出实现类似人类行为的潜力,但存在过度拟合特定行为的风险。这些发现展示了在模拟人类群体现象时使用 LLM 代理人的潜力和局限性。
Nov, 2023
本文旨在研究揭示 LLM 基于代理的社会行为的开放性研究问题,通过采用 Avalon 游戏环境和系统提示来引导 LLM 代理进行游戏,提出了一个新颖的框架来无缝适应 Avalon 游戏,并且从合作和对抗两个方面分析 LLM 代理的社会行为,为该领域的研究和应用提供了洞见。
Oct, 2023
社交媒体及其新闻推送算法对于提升构建性对话具有挑战性,本研究使用大型语言模型和基于代理模型的仿真来研究不同的新闻推送算法如何影响在线对话质量,发现新推送算法能够促进跨政治观点的建设性、非有害对话。
Oct, 2023
通过多模型协同合作策略,模拟学术同行评审过程的多个代理人独立构建解决方案,相互审查并分配评审置信度,最终通过反复修订得到优于现有方法的结果,在多个推理任务中展示出卓越的准确性,并在数学推理中体现了对评审置信度整合的有效性,为模仿人类的多代理协同过程提供了有前途的方向。
Nov, 2023
本文提出了 Solo Performance Prompting(SPP)的概念,该技术通过与多个角色进行多回合自我协作将单个大语言模型转化为认知协同体,从而激发了 LLM 中潜在的认知协同作用,提高了复杂任务中的问题解决能力。
Jul, 2023