该研究提出了一个通过注意力机制进行运动控制的算法,将内部和外部感知模式结合,以提高遗憾机器人在恶劣环境下并发控制的速度和稳定性。
Jan, 2022
该研究提出了一个从感知中学习语义导向运动技能的框架,以使四足机器人可以穿越复杂的越野地形在感知信息的帮助下以适当的速度和步态进行行走。
Jun, 2022
我们提出了一种使用基于 Transformer 的模型从配 proprioceptive 信息和高维度深度传感器输入中学习的强化学习(RL)来解决四足动物行走任务的方法。
Jul, 2021
本文介绍了利用单个 RGB 摄像机和自我感知来学习视觉行走策略的方法,提出了一种新的算法 Cross-Modal Supervision (CMS) 用于预测未来的地形和监督视觉模块,模型仅需要不到 30 分钟的现实场景训练即可在包括楼梯、滑坡、路边石和高阶梯等多种复杂地形上良好工作。
Nov, 2022
自主机器人在未知环境中可靠导航,即使在外部感知出现故障时,或者感知算法由于有限泛化能力而对场景进行错误解释时也是如此。本文将感知故障建模为不可见的障碍物和坑洞,并训练了基于强化学习的本地导航策略来引导四足机器人,在受损感知的情况下对感知故障进行端到端的环境重建和响应。
Oct, 2023
本文介绍了一个名为 PRELUDE 的层级学习框架,其中包括高层决策和低层步态生成。在该框架中,高层导航控制器用人类演示进行了模仿学习,而低层步态控制器则使用强化学习获得多样化的步态。该方法在仿真和硬件实验中表现出色。
Sep, 2022
基于图像颜色的地形物理特性知识可以帮助制定高效的机器人行动计划,但是与图像分类不同,人类对图像区块进行物理特性标注不直观。为了克服没有标注数据的困难,我们提出一种方法,通过自监督标记在真实世界遍历中由机器人拍摄的图像,结合在仿真中训练的物理属性估计器。为了确保准确标记,我们引入了主动感知驱动策略(ASMP),它们被训练用于探索提高物理参数估计准确性的行动行为。我们展示了使用少量真实世界遍历数据训练的视觉系统准确预测物理参数。该训练好的系统即使使用由固定在四足机器人行走地面上的相机采集的数据进行训练,也能够稳健地在被无人机拍摄的顶部图像上工作。
Nov, 2023
提出了一种利用无监督感知分类器自我监督外感图像的像素级语义分割的新型地形分类框架,通过学习极少标注图像的弱监督训练,能够在未知城市环境中为移动机器人提供更安全和高效的导航。
Dec, 2019
本文提出一种基于学习的方法,重建移动机器人行进城市环境中的局部地形,通过算法估计机器人周围的地形,采用 4D 全卷积网络,可以利用合成数据进行训练,并在机器人上取得良好效果。
使用无模型强化学习在仿真环境下训练的,基于镜像世界神经网络的四足机器人运动控制器具有极强的抗扰动性能和泛化能力,能够协调机器人的动作频率和运动速度,实现更加自然和合理的运动模式。
Jul, 2022