预算ML代理:一种经济高效的LLM多代理系统,用于自动化机器学习任务
基于任务查询构建动态交互结构的大型语言模型代理网络(DyLAN)在推理和代码生成任务中展现出良好性能,使用无监督度量的自动代理团队优化算法根据每个代理的贡献选择最佳代理,相较于GPT-35-turbo的单次执行,DyLAN在MATH和HumanEval任务上分别实现了13.0%和13.3%的改进,并在MMLU特定主题上提高了25.0%的准确率。
Oct, 2023
AgentTuning是一种简单且通用的方法,可以提高大型语言模型在代理任务方面的能力,同时保持其一般能力。该方法通过使用AgentInstruct与通用领域的开源指令相结合的混合指令调整策略对Llama 2系列进行了指令调整,从而得到AgentLM。评估结果显示,AgentTuning能够提升语言模型的代理能力而不影响其一般能力,AgentLM-70B在未知代理任务上与GPT-3.5-turbo相媲美,展现了广义的代理能力。我们在指定的网址开源了AgentInstruct和AgentLM-7B、13B和70B模型,为代理任务提供了开源和强大的替代方案。
Oct, 2023
利用强大的分析、规划和决策能力,以及四个代理的协作,我们提出了一种TrainerAgent系统,它由任务、数据、模型和服务器代理组成,通过综合地从数据和模型的角度对用户定义的任务、输入数据和需求进行优化,从而获得满足要求的模型,并将这些模型作为在线服务部署,相较于传统模型开发,我们的系统以增加效率和质量的方式取得了显著进展。
Nov, 2023
通过使用开源库完成机器学习任务,本文旨在提出一种新的评估设置,以评估大型语言模型(LLMs)在实际编程中的适用性,并介绍了ML-Bench和ML-Agent两个工具,用于评估LLMs在利用开源函数时的有效性。
Nov, 2023
对基于大型语言模型(LLM)的智能代理进行了深入调查,涵盖了单代理和多代理系统中的定义、研究框架、组成、认知和规划方法、工具利用、对环境反馈的响应,以及在多代理系统中部署LLM-based代理的机制,包括多角色协作、信息传递和缓解代理之间通信问题的策略,同时介绍了流行的数据集和应用场景,最后展望了基于LLM的代理在人工智能和自然语言处理领域的前景。
Jan, 2024
我们提出了一个模块化的多语言模型框架,将大型语言模型能力分解为规划器、调用器和摘要生成器,并通过两阶段训练范式有效地训练该框架,该框架在各种工具使用基准测试中表现出超越传统单语言模型方法的效果,凸显了其在工具学习中的功效和优势。
Jan, 2024
通过AgentOptimizer提出了一种新的大型语言模型代理训练范式,通过更新代理的功能而不改变大型语言模型权重,通过回滚和提前停止策略来简化训练过程,可显著提高代理在各类下游任务中的性能。
Feb, 2024
通过构建特定于代理的数据和有监督微调模型,以及设计有效激活大型语言模型推理能力的提示方法,我们提出了一种综合的方法来提高大型语言模型作为代理的性能,并通过在AgentBench的五个代理任务上的评估取得了令人满意的结果。
Mar, 2024
本研究针对大型语言模型(LLMs)在软件工程领域的应用现状进行综述,通过整合外部资源和工具,大幅提升了LLM的能力。研究表明,基于LLM的代理可以有效应对复杂的现实软件工程问题,并为未来的研究方向提供了新的思路。
Sep, 2024
本研究解决了现有自动机器学习系统在使用复杂工具时需要技术专长的问题。论文提出了一种名为AutoML-Agent的新型多智能体框架,通过任务描述促进专业大型语言模型代理之间的协作,增强探索能力并高效执行子任务,显著提高了全流程自动机器学习的成功率,有望推动AI开发的普及和效率。
Oct, 2024