层次化品质多样性用于在线损伤恢复
使用 Hierarchical Trial and Error 算法,将 QD 算法分层结构化以增加机器人学习技能的多样性,并使机器人能够更快地适应物理世界,实验表明,该方法优于现有基准算法,可提高机器人迎接新挑战的能力。
Oct, 2022
本文介绍了一种利用自主生成的行为特征描述模拟机器人环境中任务的质量 - 多样性(Quality-Diversity)算法,可以自主发现各种解决方案来处理导航、高速前进和半滚动任务。
Nov, 2022
本研究提出了 Reset-Free Quality-Diversity optimization (RF-QD) 算法来实现具有多样性和高性能技能的行为副本的自主学习,我们在 Dynamics-Aware Quality-Diversity (DA-QD) 基础上引入了一种行为选择策略,并演示了通过训练自我重置的步态行走任务,可以高效学习到具有多样性和一定安全性的行走技能。
Apr, 2022
通过使用动态模型来提高质量 - 多样性算法的样本效率,我们提出了动态感知质量 - 多样性 (DA-QD) 框架;我们从中获得的经验进行增量训练,可以在想象力中使用想象技能库进行质量 - 多样性探索。该方法能够在三个机器人实验中取得成功的应用,包括比现有 QD 方法更高效的技能发现、零 - shot 学习中的新技能库以及长期导航任务中的损伤适应。
Sep, 2021
提出了一种基于 Relevance-guided Unsupervised Discovery of Abilities 的 Quality-Diversity 算法,可以自动发现适用于任务的行为描述符,并在模拟机器人环境中验证了算法的有效性。
Apr, 2022
通过 Reset-Free QD 算法和动力学模型,在物理机器人上直接学习控制器,以提高样本效率和生成最佳存档,从而使物理四足机器人在两小时内学习到行为技能库。
Apr, 2023
该论文介绍了一种使用减少维度技术自动学习行为描述符的算法,可用于生成覆盖机器人大多数可能行为的控制器集合,其表现类似于传统的手动编码方法,但不需要提供任何手动编码的行为描述符。
Jun, 2021
本文提出了基于曲库的在线学习方法,通过与不同情境下的行为库匹配确定最优策略,取得了比 Reset-free Trial and Error 及其他传统的单曲库方法更快更高效的学习效果,并在机器人的编程中得到了实际应用。
Jul, 2019
通过使用状态条件生成模型在技能空间中加速探索,同时提出低层次的剩余策略来适应未知的任务变化,从而在与先前工作的比较中显着加快了探索速度,并跨四个不同于那些用于构建技能空间的具有挑战性的操作任务进行了验证。
Nov, 2022