通过上下文调节实现通用形态控制
本文提出了一种名为 MetaMorph 的 Transformer 方法,用于学习模块化机器人设计空间中的通用控制器,通过大规模预训练在各种机器人形态上实现组合泛化能力,并证明了可以将预训练策略用于高效的样本转移。
Mar, 2022
通过 HyperDistill 方法,我们能够在不同机器人形态之间学习一种通用策略,从而显著提高学习效率,并且实现对未见过形态的机器人的零 - shot 泛化,同时保持了与 transformers 相似的性能和与 multi-layer perceptrons 相似的高效性。
Feb, 2024
本研究比较了使用图神经网络和 transformer 的多任务强化学习方法之间的差异,提出了 Amorpheus 算法,该算法忽略了 GNN 中的形态学信息,并取得了更好的性能。
Oct, 2020
本文提出了一种基于深度强化学习和软演员 - 评论家算法的全新方法:将机器人形态与其控制器自动高效地协同适应,以降低试验形态与行为的数量,并使用先前测试过的形态和行为来估计新候选形态的性能,该方法在真实世界中实现机器人设计的协同适应尤为适用。
Nov, 2019
本文探讨了一种模块化协同进化策略,通过多个原始代理的动态自组装进而形成复合体来控制机动物体,与传统复杂代理的学习方法不同。作者通过在模拟环境中进行实验,展示了这一方法比静态和单片基线更好地适应环境变化和测试时间变化的性能。
Feb, 2019
通过建立形态 - 任务图,基于 Transformer 架构,以及用大规模行为数据来训练策略,本文研究了探索一种学习单个策略来解决不同任务和代理人形态的方法,以期实现在连续控制领域的广泛泛化。
Nov, 2022
通过使用 Quality Diversity 算法构建多个单任务 / 单形态的教师控制器的数据集,然后通过监督学习将这些多样化控制器提炼成一个能够在多种不同机体中表现良好的单一多形态控制器,本文提出了一种解决学习单一控制器控制多种形态的挑战的流程。这种提炼控制器的方法在教师控制器的知识展现方面是独立的,使得我们能够将教师的知识提炼到任何控制模型中,使我们的方法与架构改进和现有的教师控制器训练算法具有协同效应。
Apr, 2024
提出了一种基于数据驱动的方法,学习了一种直接表示动物形态的表示法,即使没有先前动物形态的描述信息,也可以训练出泛化到新动物形态的策略,实现了对新动物形态的零样本学习。
Jun, 2022
通过深度学习和强化学习相结合的方法,本文提出了一种学习策略来解决机器人的操纵任务,并展示了比先前方法更高的样本效率、对未见过任务的适应性以及在实际约束条件下复杂性设计和控制策略之间的权衡。
Nov, 2023