大型语言模型代理的超参数优化
使用大型语言模型(LLMs)在超参数优化(HPO)期间进行决策,在有限搜索预算的情况下,通过实证评估发现,LLMs 在标准基准测试上可以表现与传统 HPO 方法(如随机搜索和贝叶斯优化)相当甚至更好。此外,我们提出将定义模型的代码作为超参数进行处理,LLMs 输出该超参数,超越了现有 HPO 方法的能力。我们的研究结果表明,LLMs 是提高传统超参数优化中效率的一种有前景的工具。
Dec, 2023
本文提出一种基于迁移学习的自动超参数优化算法:Transfer Neural Processes (TNP),将历史优化实验的知识转移应用到当前优化任务中,该算法在广泛的 OpenML 数据集和三个计算机视觉数据集上实现了前沿性能。
Sep, 2019
利用大型语言模型 (LLMs) 来自动调谐粒子加速器的能力,通过自然语言提示将粒子加速器的子系统调谐到最佳状态,并与贝叶斯优化 (BO) 和强化学习训练优化 (RLO) 算法进行性能比较。该研究的目标是加快自动调谐算法在粒子加速器的日常操作中的实际应用。
May, 2024
利用自动超参数优化来设计和训练深度学习中的神经网络仍然是一个令人困惑和具挑战性的过程。本文对多种重要的自动超参数优化相关主题进行了回顾和研究:关键超参数、主要优化算法、超参数搜索框架、模型性能评估等。
Mar, 2020
通过 AgentOptimizer 提出了一种新的大型语言模型代理训练范式,通过更新代理的功能而不改变大型语言模型权重,通过回滚和提前停止策略来简化训练过程,可显著提高代理在各类下游任务中的性能。
Feb, 2024
本文提出了一种基于群体的自动化强化学习(AutoRL)框架,该框架在优化超参数和神经网络结构的同时训练智能体,提高了元优化的采样效率。在 MuJoCo 基准套件中的 TD3 算法中,我们将元优化所需的环境交互次数减少了一个数量级。
Sep, 2020
使用基于广义加法模型(GAM)替代与同伦优化结合的数据驱动方法,我们提出了一种新的超参数优化方法 HomOpt,以提高现有方法在连续、离散和分类域空间上的性能和效果,并在多个优化技术(如随机搜索、TPE、贝叶斯和 SMAC)应用 HomOpt,展示了对许多标准机器学习基准和具有挑战性的开集识别任务的改进性能。
Aug, 2023
通过对基于大语言模型的自主代理的综合调查,本文提出了一个统一框架来概括以往研究,并总结了在社会科学、自然科学和工程领域中应用大语言模型的人工智能代理的各种应用及评估策略。同时,我们还讨论了该领域的挑战和未来方向。
Aug, 2023
大型语言模型(LLMs)正在改变人工智能,使得自主代理能够在不同领域执行多样化任务。这些代理具备类似人类的文本理解和生成能力,有望在从客户服务到医疗保健等各个领域引发革命。然而,它们面临着诸如多模态、人类价值取向、幻觉和评估等挑战。推动、推理、工具利用和上下文学习等技术正在被探索,以增强它们的功能。像 AgentBench、WebArena 和 ToolLLM 这样的评估平台为在复杂场景中评估这些代理提供了强大的方法。这些进展正在引领更加有韧性和能力的自主代理的发展,预计它们将成为我们数字生活中不可或缺的一部分,协助我们完成从邮件回复到疾病诊断等任务。拥有 LLMs 带头的人工智能的未来充满了希望。
Apr, 2024