通过学习和进化实现具身智能
该研究报道了一种之前未知的现象,即进化发现了对控制变化具有鲁棒性的身体计划,这些身体计划成为遗传上同化的,但这些代理人的控制器并未被同化。这发现对于人工和实体代理人的进化设计有影响,如机器人对其控制器内部变化具有鲁棒性,也可能对其环境的外部变化具有鲁棒性。
Nov, 2017
该研究探讨并展现了一种新的技术 ——“形态创新保护”,可协同优化机器人的结构和控制策略并避免局部最优解来提高机器人的行为性能,促进了自动化机器人设计和行为训练,同时为研究实体认知理论提供了实验检验的平台。
Jun, 2017
本文提出了一种基于深度强化学习和软演员 - 评论家算法的全新方法:将机器人形态与其控制器自动高效地协同适应,以降低试验形态与行为的数量,并使用先前测试过的形态和行为来估计新候选形态的性能,该方法在真实世界中实现机器人设计的协同适应尤为适用。
Nov, 2019
本文探讨了一种模块化协同进化策略,通过多个原始代理的动态自组装进而形成复合体来控制机动物体,与传统复杂代理的学习方法不同。作者通过在模拟环境中进行实验,展示了这一方法比静态和单片基线更好地适应环境变化和测试时间变化的性能。
Feb, 2019
本文提出一种新的算法 Proximal Distilled Evolutionary Reinforcement Learning (PDERL),通过对深度神经网络进行基于学习的变异操作,弥补了简单遗传编码的缺陷,优于 Evolutionary Reinforcement Learning (ERL) 和两种现有的强化学习算法。
Jun, 2019
通过进化和发展之间的相互作用,本文提出了一种计算模型来研究能够使生物适应环境的机制,并使用元强化学习作为计算框架。通过进化递归神经网络架构的超参数而非权重值来生成的水库,可以促进复杂任务的学习、局部可观测任务的解决、促进运动任务学习中的振荡动力学以及学习行为的泛化能力。
Dec, 2023
本研究探讨了拉马克系统在进化机器人技术中的整合,并与传统的达尔文模型在各种环境中进行比较。通过采用拉马克原理,在机器人继承学习特性的基础上,结合没有继承的达尔文学习,在动态环境下研究适应性。我们的研究在六种不同的环境设置中进行,证明了拉马克系统在适应性和效率方面优于达尔文系统,特别是在具有挑战性的条件下。我们的分析突出了控制器和形态进化与环境适应之间的相互作用的关键作用,父子相似性以及学习前后的新生儿和幸存者提供了对特性继承有效性的深入理解。我们的研究结果表明,拉马克原理可以显著推进自治系统设计,在复杂的实际应用中提供更具适应性和强大的机器人解决方案的潜力。同时,我们使用实际物理机器人验证了这些理论洞察力,填补了仿真和实际应用之间的鸿沟。
Mar, 2024
通过演化得到的具有可塑性连接和神经调节的神经网络可以在自然的神经组织和可塑性系统的自发操作下,通过刺激和奖励独立地获取新的简单认知任务。
Dec, 2021