多智能体混合增强大型语言模型能力
通过采样和投票方法,我们发现大型语言模型(LLMs)的性能与代理数量成比例。此方法与现有的复杂方法无关,其增强程度与任务难度相关。我们在广泛的 LLM 基准上进行了综合实验,验证了我们的发现,并研究了可以促进该发现的特性。
Feb, 2024
基于大型语言模型(LLM)的多智能体系统在复杂问题解决和世界模拟中取得了重大进展,我们提供了一份综述,深入讨论了基于 LLM 的多智能体系统的基本方面和挑战。
Jan, 2024
我们提出了一个模块化的多语言模型框架,将大型语言模型能力分解为规划器、调用器和摘要生成器,并通过两阶段训练范式有效地训练该框架,该框架在各种工具使用基准测试中表现出超越传统单语言模型方法的效果,凸显了其在工具学习中的功效和优势。
Jan, 2024
大型语言模型的出现催生了自然语言处理的重大进展,通过引入专业代理框架(PAgents)利用 LLM 的能力创建具有可控、专业级、互动型专长的自主代理,我们认为通过持续发展的专业知识,PAgents 可以重塑专业服务。本文旨在激发关于 LLM 的有前景的现实应用的讨论,我们认为 PAgents 的日益复杂和集成可能会导致人工智能系统在复杂领域展示专业掌握能力,服务于重要需求,并潜在地实现人工通用智能。
Feb, 2024
本文介绍了一种基于代理和大型语言模型的本体匹配系统设计范例,并通过实证评估证明其在简单、复杂和少样本本体匹配任务上的性能显著优于现有系统。
Dec, 2023
最近大型语言模型 (LLM) 代理实现的自动代码生成取得了重要进展,但现有的单代理方法面对生成和改进大规模复杂代码库的限制,该论文提出了自组织多代理框架 (SoA),这是一种新的多代理框架,能够实现大规模代码的可扩展和高效生成优化。在 SoA 中,自组织代理独立操作以生成和修改代码组件,并无缝协作构建整体代码库,其关键特点是根据问题复杂度自动增加代理数量,从而实现动态可扩展性,使得代码量可以无限增加,而每个代理管理的代码量保持恒定。该论文在 HumanEval 基准上评估了 SoA,并证明与单一代理系统相比,SoA 中的每个代理处理的代码显著减少,但生成的整体代码量大幅增加。此外,SoA 在 Pass@1 准确率方面超过了强大的单代理基准 5%。
Apr, 2024