全身移动操纵的因果策略梯度
通过主动感知管道,我们在移动机器人中引入一种能够在未知、杂乱环境中进行抓取等操作的机器人运动生成方法,通过最大化视觉信息增益和任务目标达成的效率来权衡重构未知场景,以及实现了我们的移动抓取策略在真实世界中的传递。
Sep, 2023
本文提出了一种名为 ReLMoGen 的 Reinforcement Learning 方法,通过将行动空间提升到更高的阶级形式 —— 子目标,使用基于采样的运动规划器有效解决了传统方法无法解决的长期复杂任务,比如交互式导航和移动机器人操作等。在照片级仿真环境下测试表明,ReLMoGen 在多项机器人任务中表现优异,并具有良好的跨越不同运动生成器的转移能力。
Aug, 2020
在该论文中,我们演示了 TeleMoMa,这是一种用于移动操纵机器人的整体远程操作的通用模块化接口。通过使用多种人机接口(包括 RGB 和深度摄像机、虚拟现实控制器、键盘、游戏杆等),TeleMoMa 降低了人们提供移动操纵演示的门槛。通过在仿真和现实世界中远程操作多个现有移动操纵器,我们展示了 TeleMoMa 的多功能性。通过训练移动操纵任务的模仿学习策略,并通过用户研究评估不同人机接口组合下初学者学习收集演示的难易程度,我们展示了使用 TeleMoMa 收集演示的质量。我们希望 TeleMoMa 成为一个有用的工具,使研究人员能够收集整体移动操纵演示。
Mar, 2024
提出了一种基于在线抓取姿势融合的可抓取性感知移动操作方法,用于在接近目标并抓取时有效观察目标,通过通过在线整理抓取姿势,消除冗余和异常值,并将其编码为一个抓取姿势观察状态,用于强化学习。此外,实时融合抓取姿势可直接评估抓握可行性,包括抓握姿势的数量和质量。
Sep, 2023
自主机器臂操纵器在行星探索和原位资源利用任务中具有提高时间效率和生产效率的潜力,并且操作器可以自行处理对象并执行目标特定动作。我们利用因果机器学习在模拟的行星环境中训练操纵器自主研究一些它没有先前知识的对象,如行星岩石,并且通过不同的因果因素对它们进行分类,这些因素包括质量或摩擦系数等,这些因素决定了其相互作用的结果。我们通过强化学习使操纵器学会以揭示潜在因果因素的方式相互作用,我们证明了即使没有任何对象的先前知识或以前收集的训练数据,该方法也能够奏效。我们在真实的操纵器模型下在行星探索条件下进行训练。
Mar, 2024
提出使用增强学习学习整体控制策略来实现对四肢机器人的控制,以解决四肢协调和模块间错误传播的问题,该统一策略可在多种任务设置中展示动态和敏捷行为。
Oct, 2022
通过将物体运动作为条件,我们提出了一种能够从物体运动中生成全身操作行为的条件扩散框架(OMOMO),该框架学习两个独立的去噪过程,首先从物体运动中预测手的位置,然后基于预测的手位置合成全身姿势,从而显式地强制执行接触约束,从而产生更加真实可信的操作动作。
Sep, 2023
本文介绍了一种用于学习具有高度通用策略表示的动态操作行为的新方法,该方法可以扩展最近开发的策略搜索方法,并使用迭代重新拟合的时间变化线性模型来学习所需运动技能的一组轨迹,然后将这些轨迹统一到一个单一的控制策略中。
Jan, 2015