参数化任务的 MAP-Elites
本论文介绍了一种在高维控制中应用 MAP-Elites 和 Evolution Strategies 算法的新型算法 ME-ES,用于机器人关节损伤后的恢复。该算法在强欺骗奖励的高维控制任务中表现出与现有探索算法相当的高效探索能力。
Mar, 2020
本文提出了一种多目标优化的多任务学习方法,通过迭代传递模型参数在优化过程中解决存在冲突的多个任务,并在图像分类、场景理解和多目标回归问题中进行了实验验证,结果显示该方法显著提升了发现满足 Pareto 优化的模型集合的状态,尤其在大规模图像数据集上的实验中,比现有技术取得了近两倍的超体积收敛速度。
Mar, 2024
描述了一种基于 Multi-dimensional Archive of Phenotypic Elites (MAP-Elites) 算法的多目标搜索优化算法,该算法通过生成高性能解的分布图,帮助用户更好地分析最佳解的属性及其效果。
Apr, 2015
提出了一种新的、高效的方法,可以生成局部连续的 Pareto 集和 Pareto fronts,并将其应用于现代机器学习问题中。通过提出基于样本的稀疏线性系统,将多目标优化的理论结果扩展到现代机器学习问题中,并实现了局部 Pareto 集的分析。与现有算法相比,通过在各种多任务分类和回归问题上的应用,证明了我们的算法在平衡权衡、有效地找到更多的不同权衡解以及迎合百万级参数任务的能力。
Jun, 2020
该研究提出了一种全新 Pareto 多任务学习算法,通过将多任务学习看作是多目标优化问题,并将多目标优化问题分解为具有不同权衡偏好的一组约束子问题,该算法能够找到一组良好分布的 Pareto 最优解,这些解能够代表不同任务之间的不同权衡,该算法在许多多任务学习应用程序上具有优越性能。
Dec, 2019
本文介绍了一个灵活的框架,该框架允许使用任何强化学习(RL)算法,并通过演化代理人群体而不仅仅是策略来缓解限制,以改进 QD 在机器人控制问题中的应用。
Mar, 2023
本文提出了结合协方差矩阵自适应技术和档案映射技术以维持多样性的新型 quality diversity 算法 (CMA-ME),在连续空间的测试表明,CMA-ME 相较于 MAP-Elites 能够找到更好的解决方案以及策略多样性,表现翻倍。此算法对于同时探索和优化连续搜索空间有着极大的应用价值,可以应用于设计、测试和强化学习等领域。
Dec, 2019
本文提出了一种基于进化策略的快速并行评估,名为 MAP-Elites-Multi-ES(MEMES)的新型 QD 算法,该算法通过保持多个独立的进化策略线程来扩展现有的 MAP-Elites-ES 算法,并引入了一种新的动态重置过程来自主地最大化 QD 种群的改进。实验结果表明,MEMES 在黑盒优化和 QD-Reinforcement 学习任务方面表现优越,并具有本地优化适应性的内在优势。
Mar, 2023
本文提出了一种新颖的可控 Pareto 多任务学习框架,用于实现多个任务之间的实时权衡控制,其中超网络生成与偏好条件相关的模型参数,以实现基于不同权衡偏好的模型性能实时控制。
Oct, 2020
本文介绍了一种新的算法,通过任务相似性来加速多目标超参数优化 (MO-TPE)。研究表明该算法可在表格 HPO 基准测试中加速 MO-TPE, 同时获得了 AutoML 2022 比赛的第一名。
Dec, 2022