Sep, 2024
利用异质预训练变换器扩展自我感知与视觉学习
Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained
Transformers
TL;DR本研究解决了当前机器人模型训练中的异质性问题,通过在不同的机器人数据和任务上进行异质预训练,提出了一种新的Heterogeneous Pre-trained Transformers (HPT)架构。该方法有效对齐了不同机器人身体姿态的输入,从而在多个任务中显著提高了策略的表现,尤其是在未见任务上的效率超过20%。