有限资源下的优质多样性
通过使用动态模型来提高质量 - 多样性算法的样本效率,我们提出了动态感知质量 - 多样性 (DA-QD) 框架;我们从中获得的经验进行增量训练,可以在想象力中使用想象技能库进行质量 - 多样性探索。该方法能够在三个机器人实验中取得成功的应用,包括比现有 QD 方法更高效的技能发现、零 - shot 学习中的新技能库以及长期导航任务中的损伤适应。
Sep, 2021
本文介绍了 QDax 算法,该算法通过使用大规模的加速器并行特性优化 Quality-Diversity (QD) 算法,使得 QD 算法可以在交互式时间尺度下扩展,能够大规模地加速解决方案生成过程,并通过对四种不同环境的测试分析表明,实验运行时间从天级别降低到分钟级别。
Feb, 2022
本文提出了一种新算法 QDPG,它结合了策略梯度算法和质量多样性方法,用于在连续控制环境中生成多样化和高性能的神经控制器,并且比其他进化算法更具样本效率。
Jun, 2020
本文介绍了一种基于模型的 Quality-Diversity 算法,该算法通过对所有群体成员进行有效的探索和利用想象中的扰动来同时维持性能和高效的多样性,从而提高人群算法在具有欺骗性奖励的任务中的样本效率和解决方案质量。
Nov, 2022
本文提出了一种 Archive Reproducibility Improvement Algorithm(ARIA)的方法,基于自然进化策略,用于改善质量 - 多样性(Quality-Diversity)算法在噪声环境下的可重现性,并对其在优化问题和模拟机器人环境中进行了测试,得出其可以提高给定存档的质量和描述符空间覆盖率至少 50% 的结论。
Apr, 2023
本文提出了一种名为 Diverse Quality Species (DQS) 的新型质量 - 多样性算法,能够在不需要存档或事先定义行为范围的情况下,将解决方案分解为独立进化种类,并利用无监督技能发现来学习多样化而高性能的解决方案,在多个仿真机器人环境中进行评估,结果表明 DQS 比其他 QD 算法更具样本效率和性能。
Apr, 2023
Quality-diversity algorithms, with explicit behavior metrics searching for a set of high-quality and diverse solutions, provide new opportunities for AI game-playing and procedural content generation, enabling creative human-AI interactions and adaptivity.
Jul, 2019
提出了一种简化版的 Quality diversity 问题 - DQD,重点解决 Objective 和 Measure 函数是一阶可微分函数的问题,并提出了一种基于梯度信息的算法 MEGA, 成功地解决了优化过程中 “黑盒处理” 忽略 Gradient information 的问题。在两个 QD 基准领域和 StyleGAN 的潜在空间中进行实验,表明 MEGA 显著优于现有的 QD 算法,突出了 DQD 在梯度信息可用时高效的优势。
Jun, 2021
通过评估框架,该研究工作在 10 个不同抓取领域进行了 15 种方法的实验,结果显示优先选择成功解决方案的 MAP-Elites 变体在所研究的指标上大大优于其他方法,并发现稀疏交互可能导致迷惑性的新颖性,此工作在文献中具有创新性地有效产生了抓取轨迹示例,这方面没有先例。
Aug, 2023