身体变换器:利用机器人实体进行策略学习
使用Perceiver Transformer的行为克隆代理能够有效地学习行动,实验表明其在桌面任务上优于不受结构限制的图像转行动代理和3D ConvNet基准。
Sep, 2022
该论文提出了一种自监督的感知动作预训练方法,称为RPT,使用转换器操作传感动作令牌的序列,能够处理latent视觉表示,能够扩展到10倍大型模型,并可在真正的机器人上实现10 Hz的推断。
Jun, 2023
提出了一个基于视觉目标调节的决策转换器,命名为RoboCat,它能够消耗多体验行为标记的视觉经验,用于机器人操作的基础模型,并展示了模型对新任务和机器人的泛化能力,并可用于生成下一轮训练集的数据。
Jun, 2023
本文介绍了transformers在reinforcement learning中的应用,包括表示学习、转移和奖励函数建模,策略优化等多个方面,并讨论了可视化技术和高效训练策略的应用,以提高transformers的解释性和效率。同时,讨论了transformers在不同领域的应用以及在reinforcement learning中的局限性和潜在突破。
Jul, 2023
通过自我监督学习,本研究建立了一种预训练行为-状态Transformer代理模型(PASTA),并在行为克隆、离线RL、传感器故障鲁棒性以及动态变化适应等广泛领域的下游任务中进行了综合研究和比较设计选择,以提供有价值的见解给从业者,从而构建更加鲁棒的模型并推动RL策略学习的发展。
Jul, 2023
通过结合条件序列建模和技能模块化,我们提出了Skill Transformer方法,用于解决长期规划的机器人任务,并通过Transformer架构和演示轨迹对高级技能和低级动作进行端到端训练,并通过技能预测模块保持整体任务的组合性和模块化,同时考虑低级动作并避免常见的模块化方法中的交接错误。在具有挑战性的重新排列问题中,我们对Skill Transformer进行了测试,发现其在新场景中执行稳健的任务规划和低级控制,并在成功率上比基线提高了2.5倍。
Aug, 2023
本文解决了体现学习在物体中心机器人操作中的发展不足,提出了通过机器人与环境的物理交互进行学习的新方法。研究表明,体现学习能有效提升机器人在物体抓取和操作中的性能,并探讨了未来研究方向和当前面临的挑战。
Aug, 2024
本研究解决了机器人学习中数据集小且多样性不足的问题,提出了CrossFormer,一种基于变换器的灵活政策,能够处理任意体形的数据。通过在全球最大和最丰富的数据集上训练,结果表明该模型能够有效控制各种机器人,且性能优于专门针对特定体形的政策,为跨体学习开辟了更广阔的前景。
Aug, 2024
本研究解决了如何通过上下文信息在真实机器人上实现模仿学习的问题。我们提出了一种创新的因果变换器模型ICRT,该模型能够在不依赖语言数据或奖励函数的情况下,灵活执行新任务。实验表明,ICRT在处理前所未见的任务时显著优于现有的下一令牌预测模型,显示出强大的适应性与泛化能力。
Aug, 2024
本研究解决了当前机器人模型训练中的异质性问题,通过在不同的机器人数据和任务上进行异质预训练,提出了一种新的Heterogeneous Pre-trained Transformers (HPT)架构。该方法有效对齐了不同机器人身体姿态的输入,从而在多个任务中显著提高了策略的表现,尤其是在未见任务上的效率超过20%。
Sep, 2024