分解视觉机器人操作中的模仿学习普遍化差距
提出了一种解耦表示学习与行为学习的视觉模仿学习方法,使用标准的监督和自监督学习方法来学习视觉表示编码器,然后使用非参数局部加权回归来预测行为。实验结果表明,这种简单的解耦可以提高视觉模仿模型在离线演示数据集和实际机器人开门方面的性能。
Dec, 2021
本文旨在通过模仿学习的角度研究如何通过扩大数据采集并建立交互灵活的学习系统来促进基于视觉的机器人操作系统向新任务的泛化,当扩展真实机器人的数据采集到100个不同的任务时,我们发现此系统可以实现24个未见过的操作任务,平均成功率为44%。
Feb, 2022
本研究通过语言条件机器人操作来提高算法在适应不熟悉环境中的泛化能力。在模拟环境和真实世界中的测试中,实验证明该方法的平均完成任务长度比HULC方法提高多达2.5倍,并且在真实世界的测试中也取得了相当好的表现。
May, 2023
本研究旨在利用标注不足的人类视频示范来改进基于视觉的机器人操作学习数据,通过引入图像遮蔽的方法,提高眼手相机机器人操作策略的成功率达58%。
Jul, 2023
数据驱动方法在机器人控制领域迅速发展,然而对未知任务领域的泛化仍然是一个关键挑战。我们认为泛化的关键在于具备足够丰富的表示以捕捉所有任务相关信息,并且对于训练与测试领域之间的无关变异具有不变性。我们实验研究了这样一种富含深度和语义信息的表示,用于视觉导航,并证明它使得完全在模拟室内场景中训练的控制策略能够泛化到多样的现实环境,包括室内和室外。此外,我们还展示了我们的表示减小了训练和测试领域之间的A-距离,从而改善了泛化误差的上界。我们提出的方法是可扩展的:随着基础模型在预训练期间吸收更多多样数据,学习策略会持续改进。
Oct, 2023
利用自我监督的视觉变换模型及其新出的语义能力,通过聚类外观特征来形成稳定的关键点,从而改善模仿学习策略的泛化能力。本论文介绍了BC-ViT,一种利用富含DINO预训练视觉变换器(ViT)补丁级嵌入的模仿学习算法,以通过示范获取更好的泛化效果。通过对一个多样化的物体操作任务数据集进行模仿学习的评估,证明了这种表示方式能够实现广义行为。为了促进对于模仿学习中泛化问题的进一步研究,我们提供了我们的方法、数据和评估方法。
Nov, 2023
通过对15个预训练视觉模型的性能比较,发现视觉出现分割能力是ViT模型在分布偏移下的强预测因子。在十个任务中进行广泛测试后,分割分数在离线训练和50次演示后预测了真实世界的性能。
Nov, 2023
通过大规模机器人数据收集,研究表明,在考虑环境因素的情况下利用组合性训练数据,可以更好地提高机器人政策的泛化能力,从而避免收集针对特定情况的数据。
Mar, 2024
本研究解决了学习示范中的泛化问题,特别是在运动原语的背景下。我们提出了一种互动模仿学习框架,同时利用轨迹分布的局部和全局调制,从而在模型准确性改善、任务中新增物体和在无示范区域扩展技能等方面取得显著效果。该方法在承载环加载任务中进行了评估,显示出其广泛的应用潜力。
Sep, 2024
本研究解决了生成模型与低级控制器之间接口的瓶颈问题,通过提出Generative Hierarchical Imitation Learning-Glue (GHIL-Glue)方法,有效过滤出不利于任务进展的子目标,从而提升低级政策对生成子目标的鲁棒性。实验表明,GHIL-Glue在多种层次模型上实现了25%的性能提升,并在CALVIN仿真基准上达到了新的最先进水平。
Oct, 2024