动态品质多样性搜索
本文提出了一种名为 Diverse Quality Species (DQS) 的新型质量 - 多样性算法,能够在不需要存档或事先定义行为范围的情况下,将解决方案分解为独立进化种类,并利用无监督技能发现来学习多样化而高性能的解决方案,在多个仿真机器人环境中进行评估,结果表明 DQS 比其他 QD 算法更具样本效率和性能。
Apr, 2023
通过使用动态模型来提高质量 - 多样性算法的样本效率,我们提出了动态感知质量 - 多样性 (DA-QD) 框架;我们从中获得的经验进行增量训练,可以在想象力中使用想象技能库进行质量 - 多样性探索。该方法能够在三个机器人实验中取得成功的应用,包括比现有 QD 方法更高效的技能发现、零 - shot 学习中的新技能库以及长期导航任务中的损伤适应。
Sep, 2021
Quality-diversity algorithms, with explicit behavior metrics searching for a set of high-quality and diverse solutions, provide new opportunities for AI game-playing and procedural content generation, enabling creative human-AI interactions and adaptivity.
Jul, 2019
通过 Reset-Free QD 算法和动力学模型,在物理机器人上直接学习控制器,以提高样本效率和生成最佳存档,从而使物理四足机器人在两小时内学习到行为技能库。
Apr, 2023
本文提出了一个全面的质量多样性优化算法统一框架,探讨了该算法族群的大量变体,并提出了一种新的集合管理机制解决了在使用无结构的集合时观察到的侵蚀问题,同时还提出了使用质量多样性优化算法的新的选择机制,其性能比本文测试的所有算法都要好,这三个贡献都得到了质量多样化算法在三个不同实验场景下的广泛实验比较的支持。
May, 2017
该论文介绍了一种使用减少维度技术自动学习行为描述符的算法,可用于生成覆盖机器人大多数可能行为的控制器集合,其表现类似于传统的手动编码方法,但不需要提供任何手动编码的行为描述符。
Jun, 2021
本研究提出了 Reset-Free Quality-Diversity optimization (RF-QD) 算法来实现具有多样性和高性能技能的行为副本的自主学习,我们在 Dynamics-Aware Quality-Diversity (DA-QD) 基础上引入了一种行为选择策略,并演示了通过训练自我重置的步态行走任务,可以高效学习到具有多样性和一定安全性的行走技能。
Apr, 2022
通过评估框架,该研究工作在 10 个不同抓取领域进行了 15 种方法的实验,结果显示优先选择成功解决方案的 MAP-Elites 变体在所研究的指标上大大优于其他方法,并发现稀疏交互可能导致迷惑性的新颖性,此工作在文献中具有创新性地有效产生了抓取轨迹示例,这方面没有先例。
Aug, 2023
本文介绍了一个灵活的框架,该框架允许使用任何强化学习(RL)算法,并通过演化代理人群体而不仅仅是策略来缓解限制,以改进 QD 在机器人控制问题中的应用。
Mar, 2023