采用强化学习方法通过层次性模拟实现在多移动机器人协作下的操纵行为。
Aug, 2019
本文提出了一种新的机器人操作方法,该方法利用了物体本身的运动学习,通过使用物理模拟器中的对象运动策略生成辅助奖励,称为模拟运动演示奖励(SLDRs),该方法可以在不需要人类演示或昂贵成本的情况下,通过强化学习来掌握机器人操作技能,从而实现多物体堆放和非刚性物体操作等任务的更高成功率和更快学习。
Oct, 2019
本研究提出了一个层次框架,将基于模型的控制和强化学习相结合,为四足动物(Unitree Laikago)合成鲁棒控制器。通过学习选择一套原语响应环境中的变化,使其适应复杂的环境变化,并具有更高的能源效率和更强的鲁棒性。
Sep, 2020
本文提出一种安全的强化学习框架,用于处理复杂的接触丰富的机器人操作任务,能够在任务空间和关节空间中保持安全,同时使机械臂与环境发生的接触力保持较小。该框架采用模拟训练,成功地在实际机器人上验证了其性能。
Jul, 2022
我们介绍了一种用于学习灵巧操作技能的高效系统,通过整合最近在样本有效强化学习和重放缓冲引导方面的进展,利用来自不同任务或物体的数据作为训练新任务的起点,显著提高学习效率,同时通过基于模仿的拾取策略和学习奖励函数,消除了手动重置和奖励工程的需求,并在四指机械手上的真实环境中展示了重用先前数据作为重放缓冲初始化的好处,例如在真实世界中快速获得复杂操作技能。
Sep, 2023
通过模拟环境构建数字双子,提出了一种通过强化学习来增强真实世界模仿学习策略的系统 RialTo,实现高性能、鲁棒性的策略的学习,同时避免大量不安全的真实数据收集和大量人工监督。
Mar, 2024
通过积极学习方法和贝叶斯神经网络模型,提高机器人操纵的模型质量和数据效率,以应对复杂环境下的多任务处理挑战。
Apr, 2024
提出了一种基于 HYPERmotion 框架的自主学习与行为规划方法,该方法结合了强化学习和全身优化,并且利用复杂的环境信息和大型语言模型的规划和推理功能,可以使机器人实现高自由度的行为适应性。
Jun, 2024
本研究针对强化学习(RL)算法在真实环境中训练的挑战,探索了在可控且现实的设置中进行灵巧操作的直接训练。通过基准测试三种RL算法在复杂手持操作任务中的效果,结果展示了RL训练在实际应用中的实用性及相关挑战,为机器人领域的研究者和从业者提供了宝贵的经验和启示。
Aug, 2024
本研究针对现有模型在复杂操作中的失效问题,提出了一种新颖的层次强化学习方法,旨在学习独立的恢复策略。当检测到失败时,该策略可以使机器人恢复至可完成任务的状态。研究结果表明,相比于基线方法,该方法在学习恢复策略方面显著提高了鲁棒性,并成功实现了从仿真到物理机器人的转移。
Oct, 2024