工具链:大型语言模型作为自动多功能学习器
该研究提出了一种基于大型语言模型 (LLMs) 的闭环框架 LLMs As Tool Makers (LATM),通过该框架,LLMs 可以自己创建可重用的工具以解决问题,并验证了该方法在包括 Big-Bench 任务在内的复杂推理任务中的有效性,使用 GPT-4 作为工具制造者和 GPT-3.5 作为工具用户,LATM 的性能与使用 GPT-4 制造和使用工具的性能相当,而推理成本显著降低。
May, 2023
ToolNet 是一个可拔插的框架,通过将工具组织成有向图的方式,使大语言模型能够处理成千上万个工具,并通过迭代选择来解决问题,从而在具有挑战性的多跳工具学习数据集中取得显著结果,并且具有工具故障的弹性。
Feb, 2024
通过使用多模态编码器将开源大语言模型(LLM)与多模态输入指令结合起来,我们提出了 Tool-LMM 系统,使学习的 LLMs 能够意识到多模态输入指令并正确选择匹配功能的工具,实验证明我们的 LMM 能够为多模态指令推荐适当的工具。
Jan, 2024
通过引入 ToolLLM,一个包括数据构建、模型训练和评估的通用工具使用框架,我们展示了它在增强自然语言模型的规划和推理能力方面的显著影响。我们通过用 ChatGPT 创建一个工具使用指导数据集 ToolBench,并使用深度优先搜索决策树(DFSDT)扩展搜索空间,有效地获取有效的解决方案路径。通过对 LLaMA 进行微调后得到 ToolLLaMA,我们的评估器 ToolEval 显示 ToolLLaMA 在执行复杂指令和推广到未见过的 API 方面表现出卓越的能力,并与 ChatGPT 有着相当的性能。为了使流程更加实用,我们设计了一个神经 API 检索器以为每个指令推荐适当的 API,省去了手动选择 API 的繁琐步骤。
Jul, 2023
通过 Tool-Planner 框架,基于 API 函数将工具分组成一个工具包,允许大型语言模型在不同工具包之间实现计划,解决了冗余错误校正和多工具之间正确计划的挑战,实验表明该方法在不同数据集上具有很高的通过率和胜率,并优化了 GPT-4 和 Claude 3 等模型中工具学习的计划方案,展示了我们方法的潜力。
Jun, 2024
我们介绍了 ControlLLM,这是一个新颖的框架,使得大型语言模型能够利用多模态工具来解决复杂的现实世界任务,通过使用任务分解器、Thoughts-on-Graph(ToG)范式和具备丰富工具箱的执行引擎,在图像、音频和视频处理等多样任务中展示出了超群的准确性、效率和多功能性。
Oct, 2023
当前大型语言模型 (LLMs) 的现状需要融入外部工具。目前已有研究证明缺乏直接的代数和逻辑推理,促使研究人员开发了允许 LLMs 通过外部工具操作的框架。本文的核心目的是强调图形化方法在 LLM 与工具互动中的重要性。我们提出了一个示例框架,用于指导将外部工具与 LLMs 的数量呈指数增长的协同工作,其中工具的目标和功能以图形编码的层次结构呈现。假设文本的思维链 (CoT) 可以被想象为一个工具,基于图形的框架也可以在这一特定方向上开辟新的途径。
Aug, 2023
大型语言模型需要通过链接现实世界的知识来实现与人类期望一致的准确推理。我们提出了一种新的方法,使用抽象链条进行计划,从而使语言模型能够更好地利用工具进行多步推理,并取得更高效的工具使用和更快的推理速度。
Jan, 2024
我们提出了一个模块化的多语言模型框架,将大型语言模型能力分解为规划器、调用器和摘要生成器,并通过两阶段训练范式有效地训练该框架,该框架在各种工具使用基准测试中表现出超越传统单语言模型方法的效果,凸显了其在工具学习中的功效和优势。
Jan, 2024
最近,利用大型语言模型(LLMs)进行工具学习已经成为增强 LLMs 能力以解决高度复杂问题的一种有前景的范式。尽管这一领域受到越来越多关注和快速发展,但现有文献仍然零散且缺乏系统组织,对于新手来说存在进入障碍。本文通过对现有关于 LLMs 工具学习的文献进行综述,旨在探讨为什么工具学习有益以及如何实现工具学习,从而全面了解 LLMs 工具学习。首先,我们通过从六个具体方面回顾工具整合的益处以及工具学习范式的内在益处来探讨 “为什么”。在 “如何” 方面,我们根据工具学习工作流程的四个关键阶段(任务规划、工具选择、工具调用和响应生成)系统综述了现有文献。此外,我们还详细总结了现有的基准和评估方法,并根据其与不同阶段的相关性进行分类。最后,我们讨论了当前的挑战,并概述了潜在的未来方向,旨在鼓励研究人员和工业开发者进一步探索这一新兴而有前景的领域。
May, 2024