利用物体中心的视觉可承受能力学习巧妙抓握
使用迁移学习框架,通过对视觉网络和物体操作网络进行预训练和微调,成功地实现了零经验机器人对物体的拾取任务,且只需少量的机器人经验即可获得更好的效果。
Jul, 2021
本文提出了DexVIP,一种从人 - 物体交互中学习灵巧机器人抓取的方法,并在30自由度的模拟机器人手上进行了27个物体的实验,证明DexVIP比现有方法快速且更具效率。
Feb, 2022
本研究提出了使用大规模演示学习熟练操作多指手来处理机器人学中最具挑战性的问题。 主要采用人类抓握可行性模型生成3D物体演示,以实现策略的泛化。同时,本研究使用了新颖的模仿学习目标,以及几何表示学习目标,通过在仿真系统中重新定位多样的对象以证明本方法的有效性。
Apr, 2022
本研究使用视觉契合技术,通过预测关键点的接触信息,提出了一种端到端的控制策略学习框架,可以实现在不同类型的操纵任务中的泛化。结果显示,我们的算法在成功率上大大优于基线算法,包括基于视觉契合和强化学习方法。
Sep, 2022
本篇研究通过介绍一种新的中间变量来提高三维抓取合成的效率,以解决现有方法想要直接从物体映射到抓取姿势的非光滑和低效问题,并提出了一种基于接触区域的因子图形式来描述抓取姿态生成过程,并通过实验验证了优化方法的有效性。
Oct, 2022
为了使机器人能够使用工具,我们提出了一种从人-物互动中学习粒度感知功能性工具握持的方法,该方法利用物体的显著特征来定位功能性作用区域并预测熟练的粗略手势。通过弱监督学习从外心图像中提取相关线索以监督视角中的特征提取,我们的方法在功能手-物互动图像数据集上表现出优于现有方法的效果。
Jun, 2024
本研究针对机器人操作中对功能性能力理解不足的问题,提出了一种高效的能力学习系统,结合自动数据收集和模型训练。通过引入几何引导能力转换器(GKT)和能力抓取框架(Aff-Grasp),该系统显著提高了能力预测和抓取成功率,推动了更智能的机器人操作能力的发展。
Aug, 2024
本研究针对现有机器人手控制政策局限,提出了一种通用的抓握策略,实现对不同灵巧机器手的有效控制。通过模拟人手的控制方式,我们提出了一种基于人手特征抓握的统一动作空间,实验结果显示该方法在不同体现上实现了80%的成功率并具有良好的零-shot 泛化能力。
Oct, 2024
本研究聚焦于机器人操控中的赋予能力问题,提出了一种以赋予能力为中心的政策学习方法,通过在关键区域上集中和适当地定位任务框架,简化学习过程并提升泛化能力。我们的主要发现是,该方法能够在仅使用10个演示进行行为克隆的情况下,学习操控任务,并与基于图像的政策在305个演示下的泛化效果相当。
Oct, 2024