机器人操作网络(ROMAN)-- 混合分层学习解决复杂的序列任务
本研究提出了一种基于 Transformer 的方法来处理人类语言指令和多视角场景观察,以提高机器人的精准操作,并在 RLBench 基准测试中成功实现 74 项任务,还表现出对未曾见过变化的任务的良好泛化性能。
Sep, 2022
提出了一种多任务学习的层级强化学习框架,名为 SGIM-SAHT,用于使机器人完成各种复杂的控制任务,并演示了该框架能够学习到基本的任务和复合任务之间的层次关系,从而实现了从简到难的任务学习,并通过表示任务依赖性、内在动机探索、主动模仿等途径,使机器人能够推断出自己的任务学习进度,并决定何时、如何、以及向谁进行模仿学习。
Feb, 2022
我们介绍了一个基于人类语言指令的桌面环境下,侧重于任务分配和长时间跨度物体操作的多机器人语言条件操作(LEMMA)基准。LEMMA 具有多种类型的过程生成任务,其复杂度不同,其中一些需要机器人使用工具并将工具传递给彼此。为每个任务提供 800 个专家示范和人类指令进行训练和评估。LEMMA 相对于现有基准提出了更大的挑战,因为它要求系统识别每个操纵器的限制,并相应地分配子任务,同时还要处理每个任务中的强时间依赖。为应对这些挑战,我们提出了一种基于模块化分层规划方法作为基线。我们的结果突显了 LEMMA 在开发未来语言条件多机器人系统方面的潜力。
Aug, 2023
本文介绍了一种新颖的交互式多对象搜索任务,并提出了一种层次强化学习方法,学习探索、导航和操作技能,该方法在模拟和实际的实验中展示了零样本迁移和对不同机器人运动学的适应性。
Jul, 2023
提出了一种基于 HYPERmotion 框架的自主学习与行为规划方法,该方法结合了强化学习和全身优化,并且利用复杂的环境信息和大型语言模型的规划和推理功能,可以使机器人实现高自由度的行为适应性。
Jun, 2024
本研究提出了主动任务随机化(ATR)的方法,通过自动创建合理而新颖的任务,学习了一种适用于顺序操作的视觉运动技能,证明了这种方法比基线方法效果更好。
Nov, 2022
本研究提出了一种新的自适应分层奖励机制 (AHRM),可以解决机器人在学习掌握多目标任务时,具有多个目标且优先级可能在不同阶段发生变化的情况下,无法以深度强化学习方法学习最佳策略的问题。实验结果表明,所提出的方法在多目标操作任务的 JACO 机械臂中能够提高机器人的学习效率和任务性能。
May, 2022
以多任务学习为基础,提出一种通过演示学习从而训练低成本机械臂控制器,以便完成数个拾取放置任务及非预抓取式操控操作的技术,使用原始图像作为输入并生成机器人臂路径的基于循环神经网络的控制器,参数在任务之间共享;同时结合基于 VAE-GAN 重建以及自回归多模态行为预测的控制器模型。结果表明,可以通过行为克隆直接从原始图像中学习复杂的操纵任务,例如拾起毛巾、擦拭物体并将毛巾放回原位等,权重共享和基于重构的正则化大大提高了泛化性和鲁棒性,同时同时训练多个任务能够增加所有任务的成功率。
Jul, 2017
该论文介绍了一种利用大型语言模型(LLM)进行自主机器人操纵的新方法,通过逻辑推理将高层语言命令转化为可执行的运动函数序列。所提出的系统将 LLM 的优势与基于 YOLO 的环境感知相结合,使机器人能够根据给定的命令自主做出合理的决策和任务规划。此外,为了解决 LLM 可能出现的不准确性或不合逻辑的行为,采用了远程操作和动态运动原理(DMP)的组合进行行为校正。这种融合旨在提高 LLM 基础的人机协作系统的实用性和通用性。
Aug, 2023