关键词visual imitation learning
搜索结果 - 6
- 通过组合泛化实现机器人操作的高效数据收集
通过大规模机器人数据收集,研究表明,在考虑环境因素的情况下利用组合性训练数据,可以更好地提高机器人政策的泛化能力,从而避免收集针对特定情况的数据。
- ICLR使用 Patch 奖励的视觉模仿学习
本文提出了一种使用图像局部区域的专业度来计算相应的奖励值的方法,即 PatchAIL。这种方法综合了奖励值并提高了训练的稳定性,能够在深度强化学习任务中提供有价值的解释性。
- 外部因素感知的模仿学习
本文提出了一种名为 EIL 的基于自监督学习的方法,通过学习第三人称包含无关任务但与环境局部一致的演示来学习视动作策略,实验结果表明,EIL 方法在仿真和实际机器人控制任务中均胜过强基线,并获得与理论最佳演示训练的策略相当的效果。
- 表示学习在视觉模仿中的惊人有效性
提出了一种解耦表示学习与行为学习的视觉模仿学习方法,使用标准的监督和自监督学习方法来学习视觉表示编码器,然后使用非参数局部加权回归来预测行为。实验结果表明,这种简单的解耦可以提高视觉模仿模型在离线演示数据集和实际机器人开门方面的性能。
- 从单个演示到机器人操作的粗到细模仿学习
本文介绍了一种用于视觉模仿学习的简单方法,可以从一个人类演示中学习机器人操作任务,而无需先前了解与对象的交互情况,并且可以通过自监督学习进行训练。在实现过程中,该方法将模仿学习建模为状态估计问题,以目标交互开始时末端执行器的姿态作为状态,在 - 视觉模仿的简易实现
本研究提出了一种基于商用机械臂的可行的、简化了数据收集过程的、能够有效采集各种复杂场景演示数据的人机互动界面,并采用了多项数据增强技术来优化模型的学习性能,最终在非捏取推动和物品堆叠等任务中获得了较高的成功率。