小型 LLM 是弱工具学习者:多 LLM 代理
通过使用多模态编码器将开源大语言模型(LLM)与多模态输入指令结合起来,我们提出了 Tool-LMM 系统,使学习的 LLMs 能够意识到多模态输入指令并正确选择匹配功能的工具,实验证明我们的 LMM 能够为多模态指令推荐适当的工具。
Jan, 2024
基于大型语言模型(LLM)的多智能体系统在复杂问题解决和世界模拟中取得了重大进展,我们提供了一份综述,深入讨论了基于 LLM 的多智能体系统的基本方面和挑战。
Jan, 2024
将大型语言模型作为自主代理的规划模块,通过提供现有作品的分类和全面分析,讨论了任务分解、计划选择和外部模块等方向在 LLM-Agent 规划中的进展和挑战。
Feb, 2024
通过使用大规模语言模型,我们提出了一种新的框架,通过从语言模型教师代理接收指导行为,训练一个小规模专用的学生代理。通过将语言模型的先验知识融入到本地学生模型中,该学生代理可以用较少的数据进行训练,并通过环境反馈进一步提升其能力。实验结果表明,我们的方法提高了样本效率,并实现了比基准方法更卓越的性能。
Nov, 2023
大语言模型在规划和推理任务中的作用有很多混淆。我们认为,自回归 LLM 本身无法进行规划或自验证,并指出了文献中常见误解的原因。我们提出了 LLM - 模块化框架的愿景,将 LLM 的优势与外部基于模型的验证器在更紧密的双向交互方式中结合起来。我们将展示如何利用 LLM 获得驱动外部验证器的模型。我们还将论述 LLM - 模块化框架提供了更好的神经符号方法,通过更灵活的知识、问题和偏好规范,扩展了基于模型的规划 / 推理范围。
Feb, 2024
该研究提出了一种基于大型语言模型 (LLMs) 的闭环框架 LLMs As Tool Makers (LATM),通过该框架,LLMs 可以自己创建可重用的工具以解决问题,并验证了该方法在包括 Big-Bench 任务在内的复杂推理任务中的有效性,使用 GPT-4 作为工具制造者和 GPT-3.5 作为工具用户,LATM 的性能与使用 GPT-4 制造和使用工具的性能相当,而推理成本显著降低。
May, 2023
通过离线强化学习将大型语言模型(LLM)的分解能力融入紧凑模型,我们利用 LLM 能力的进步提供反馈并生成专门的任务特定数据集来训练紧凑模型,该研究的主要贡献是开发了一个 AI 生成的数据集和建立了基线,强调了紧凑模型在复制复杂问题解决能力方面的潜力。
Feb, 2024
本研究探讨了利用工具增强大规模语言模型在处理复杂环境中的潜力,并通过在知识库和数据库等复杂环境中的实证来展示这种潜力。结果表明,配备这些工具的 GPT-4 在需要访问数据库内容的任务中性能提高了 2.8 倍,在知识库任务中提高了 2.2 倍。这些发现为在复杂实际应用中推进语言模型的发展指明了方向。
Feb, 2024
综合利用 LLMs 能力的 StrategyLLM 框架提出,通过制定通用问题解决策略,以及利用这些策略产生一致的解决方案来提高推理方法的泛化性和一致性。实验证明,StrategyLLM 在数学推理、常识推理、算法推理和符号推理等 4 个具有挑战性的任务上,比需要人工注释解决方案的同类基准模型 CoT-SC 表现更好。
Nov, 2023
通过构建特定于代理的数据和有监督微调模型,以及设计有效激活大型语言模型推理能力的提示方法,我们提出了一种综合的方法来提高大型语言模型作为代理的性能,并通过在 AgentBench 的五个代理任务上的评估取得了令人满意的结果。
Mar, 2024