LLAMA:利用学习自动管理算法
该研究介绍了一种名为 LLM 辅助在线学习算法(LOLA)的新型框架,通过将大型语言模型(LLMs)与自适应实验相结合,优化内容传递,以提高用户参与度。研究结果表明,与传统 A/B 测试方法相比,LOLA 在有限的实验流量或多种实验情境下表现更好,特别适用于数字广告和社交媒体推荐等各种数字环境中的内容实验。
Jun, 2024
该论文提出了一种将算法表示集成到算法选择过程中的方法,通过模块化提取问题和算法的表示,利用预训练的 LLMs 来计算匹配度,实验证实了该模型的有效性以及预训练 LLMs 的性能,表明该算法选择框架有潜力作为评估 LLMs 编码表示能力的基准任务。
Nov, 2023
ALAMO 是一种用于从数据中学习代数函数的计算方法,通过从数据中构建低复杂度的线性模型,并使用非线性变换,将线性模型精确逼近实际过程中的复杂行为,并使用无导数优化的误差最大化采样逐步细化模型。同时,该方法可以强制约束反应变量,以纳入基础知识,并用于进一步完善浓度模型,生成表现更好且满足模型输出上下限约束的模型。
May, 2017
使用 GPT-4 这种大型自然语言模型的新型 LLMEa (Large Language Model Evolutionary Algorithm) 框架能够自动生成和优化算法,我们通过在五维黑盒优化基准 (BBOB) 上的测试结果展示了该框架的可行性,并为进一步的算法自动生成和优化指明了未来的方向。
May, 2024
利用大型语言模型进行算法进化,能够自动生成优化算法,减少人工专家和领域知识的需求,在解决推销员旅行问题方面表现优异,具有出色的可伸缩性,与先前的利用语言模型作为搜索操作符的尝试大不相同。
Nov, 2023
Lale 是一个高级 Python 接口库,它简化和统一自动机器学习工具,包括搜索超参数、算法和管道拓扑结构等,并解决了自动化工具的不一致语法和高级功能支持问题。
Jul, 2020
本文针对设计算法组合的问题,提出了并行考虑调度问题和机器学习问题的技术,并在布尔可满足性、01 整数规划和人工智能规划等领域取得了显著的实验性能提升,具有较强的理论保证。
Jun, 2012
我们提出了一个模块化的多语言模型框架,将大型语言模型能力分解为规划器、调用器和摘要生成器,并通过两阶段训练范式有效地训练该框架,该框架在各种工具使用基准测试中表现出超越传统单语言模型方法的效果,凸显了其在工具学习中的功效和优势。
Jan, 2024
综合利用 LLMs 能力的 StrategyLLM 框架提出,通过制定通用问题解决策略,以及利用这些策略产生一致的解决方案来提高推理方法的泛化性和一致性。实验证明,StrategyLLM 在数学推理、常识推理、算法推理和符号推理等 4 个具有挑战性的任务上,比需要人工注释解决方案的同类基准模型 CoT-SC 表现更好。
Nov, 2023
给定一个初始解决方案,我们引入了一个自适应求解器框架,通过动态适应策略,包括模型适应、提示方法适应和分解粒度适应,来提高计算效率和整体性能,同时减少 API 成本。
Oct, 2023