信息不对称下的协作任务自主代理
在信息不对称的情况下,开发能够制定策略并与人类合作的自主代理人是具有挑战性的,需要有效的自然语言交流。我们引入了一个共享控制游戏,两个玩家轮流共同控制一个令牌,以在不完整信息下实现共同目标。我们对一个自主代理人在此游戏中与另一位玩家(人类)的政策综合问题进行了数学建模。为了解决这个问题,我们提出了一种基于通信的方法,包括一个语言模块和一个规划模块。语言模块将自然语言消息与定义玩家意图的有限标志集之间进行翻译。规划模块利用这些标志,使用我们提出的基于不对称信息集的蒙特卡洛树搜索与标志交换算法计算策略。我们使用《夜间侏儒》作为基础的测试场景进行了这种方法的有效性评估,该场景是一个搜索和找到迷宫棋盘游戏。人类主体实验的结果表明,通过交流,玩家之间的信息鸿沟变小,合作效率提高,并减少回合数。
May, 2024
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于 LLMs 的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于 LLMs 在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
我们提出了一种新型基础设施,名为 MindAgent,用于评估游戏交互中的规划和协调能力,并引入了新的游戏场景和相关基准,以评估多智能体协作效率。我们使用新的自动度量 CoS 进行全面评估。我们希望我们对大型语言语料库学习的 LLMs 以及用于通用调度和协调的新基础设施的发现能够揭示如何获取这些技能的一些见解。
Sep, 2023
通过对基于大语言模型的自主代理的综合调查,本文提出了一个统一框架来概括以往研究,并总结了在社会科学、自然科学和工程领域中应用大语言模型的人工智能代理的各种应用及评估策略。同时,我们还讨论了该领域的挑战和未来方向。
Aug, 2023
研究使用大规模语言模型(LLMs)驱动的多 Agent 系统在协作中解决复杂任务的能力。主要考虑多 Agent 协作中的一个基本问题:共识寻求。通过 Agent 间的协商,研究了一个寻求共识的任务,其中每个 Agent 的状态是数字值,他们彼此协商达成共识值。发现,当没有明确指导应采用哪种策略时,LLM 驱动的 Agent 主要使用平均策略寻求共识,尽管偶尔也会使用其他策略。此外,分析了 Agent 数量、Agent 个性和网络拓扑对协商过程的影响。研究结果为理解 LLM 驱动的多 Agent 系统在解决更复杂任务方面的行为奠定了基础。除此之外,将 LLM 驱动的共识寻求应用于多机器人聚合任务,展示了 LLM 驱动的 Agent 在多机器人协作任务中实现零次规划的潜力。项目网址: westlakeintelligentrobotics.github.io/ConsensusLLM/。
Oct, 2023
提出和评估一种新颖的方法,在不依赖任何存储数据或预训练的情况下,在 LLM 代理之间进行知识蒸馏,以实时保留人类角色扮演中的独特语境,并评估我们的系统在模拟的真实世界任务中表现更好。
Mar, 2024
本文探讨了基于多代理系统理论(SMA)与大型语言模型(LLM)的计算实体的动态影响,这些实体的特点是能够模拟复杂的人类互动,作为一种从使用专门的人工代理支持运营业务流程到基于应用知识和人类编排的战略决策的革命可能性。我们展示了利用基于大型语言模型(LLM)的代理开发,通过考虑行为元素并由策略驱动,从而刺激基于使用案例在商业场景中生成知识的能力,利用代理之间的讨论方法(引导式对话),为组织战略提供潜力,基于多代理系统理论(SMA)和创新的大型语言模型(LLM)的应用,为不同的应用、复杂性、领域和 LLM 的能力提供了一种不同和可适应的实验。
Mar, 2024
这篇论文通过建立一个开源模拟数字市场,利用语言模型驱动的智能代理人代表外部参与者买卖信息,解决了买方对信息市场的检查悖论。代理人具备评估特权信息质量和选择性遗忘的能力,使得卖家能够临时授权专有信息的访问,从而显著减少未经授权的保留风险,同时使代理人能够准确衡量信息与特定查询或任务的相关性。实验证明,语言模型存在偏见导致非理性行为,可以通过评估和缓解这些偏见、调查价格如何影响信息商品的需求,以及检查和增加预算对结果质量的提升等方面来改善。
Mar, 2024