评估优质多样性神经进化算法在难度较高的探索问题中的表现
本文提出了一个深度神经进化强化学习机器人控制的质量多样性基准套件,包括任务,环境,行为描述符和适应性。基准使用标准的质量多样性指标,优势和档案概要指标来量化覆盖和适应度之间的关系,同时介绍了相对于环境随机性的解决方案的健壮性度量方式。我们相信本基准是一个有价值的工具,可以用于比较和改进研究结果。
Nov, 2022
本文介绍了一种基于模型的 Quality-Diversity 算法,该算法通过对所有群体成员进行有效的探索和利用想象中的扰动来同时维持性能和高效的多样性,从而提高人群算法在具有欺骗性奖励的任务中的样本效率和解决方案质量。
Nov, 2022
本文提出了一种名为 Diverse Quality Species (DQS) 的新型质量 - 多样性算法,能够在不需要存档或事先定义行为范围的情况下,将解决方案分解为独立进化种类,并利用无监督技能发现来学习多样化而高性能的解决方案,在多个仿真机器人环境中进行评估,结果表明 DQS 比其他 QD 算法更具样本效率和性能。
Apr, 2023
Quality-diversity algorithms, with explicit behavior metrics searching for a set of high-quality and diverse solutions, provide new opportunities for AI game-playing and procedural content generation, enabling creative human-AI interactions and adaptivity.
Jul, 2019
通过在 8 种最先进的方法上进行广泛的实证评估,本文证明了 Quality Diversity (QD) 方法是技能发现的一种有竞争力的替代方案,既可以提供相同甚至更好的性能,而且对超参数更不敏感且可扩展性更高。
Oct, 2022
本文提出了一种新算法 QDPG,它结合了策略梯度算法和质量多样性方法,用于在连续控制环境中生成多样化和高性能的神经控制器,并且比其他进化算法更具样本效率。
Jun, 2020
本文提出了一个全面的质量多样性优化算法统一框架,探讨了该算法族群的大量变体,并提出了一种新的集合管理机制解决了在使用无结构的集合时观察到的侵蚀问题,同时还提出了使用质量多样性优化算法的新的选择机制,其性能比本文测试的所有算法都要好,这三个贡献都得到了质量多样化算法在三个不同实验场景下的广泛实验比较的支持。
May, 2017
本文介绍了 QDax 算法,该算法通过使用大规模的加速器并行特性优化 Quality-Diversity (QD) 算法,使得 QD 算法可以在交互式时间尺度下扩展,能够大规模地加速解决方案生成过程,并通过对四种不同环境的测试分析表明,实验运行时间从天级别降低到分钟级别。
Feb, 2022
提出了一种简化版的 Quality diversity 问题 - DQD,重点解决 Objective 和 Measure 函数是一阶可微分函数的问题,并提出了一种基于梯度信息的算法 MEGA, 成功地解决了优化过程中 “黑盒处理” 忽略 Gradient information 的问题。在两个 QD 基准领域和 StyleGAN 的潜在空间中进行实验,表明 MEGA 显著优于现有的 QD 算法,突出了 DQD 在梯度信息可用时高效的优势。
Jun, 2021