从单次演示中学习抓取
本文采用大规模数据集和多阶段学习方法,使用卷积神经网络对机器人进行抓取任务,与几个基准进行比较,表现出了最先进的泛化能力。
Sep, 2015
通过简单的人类示范,我们提出了一种既不需要大量标注图像,也不受特定几何形状限制的机器人抓取方法:利用一个小的 RGB-D 图像序列构建相关的手和物体网格模型,然后在当前环境中估计物体的姿态并转移所需的抓取指令。
Dec, 2021
本论文提出了一种新颖的机器人抓取检测系统,该系统使用深度卷积神经网络从场景中提取特征并使用浅层卷积神经网络来预测感兴趣目标的抓取配置,取得了 89.21%的准确率和实时的运行速度,重新定义了机器人抓取检测的技术水平。
Nov, 2016
通过卷积神经网络对单目图像进行学习,实现机器人抓握的手眼协调,并能实现实时控制、成功抓握陌生物体,以及通过连续伺服调节校正抓握错误。
Mar, 2016
本文介绍了一种基于卷积神经网络的准确、实时的机器人抓取检测方法,该网络可以在单个阶段内执行分类并查找一个优质的抓取矩形,并使用局部约束机制预测每个对象的多重抓取,比现有方法高 14 个百分点性能更好,尤其是对于可以用不同方式抓取的物体。
Dec, 2014
运用深度学习方法解决机器人抓取问题,通过多模态组规则化结构化正则化权重来处理多模态输入,实现了比之前最先进方法更好的效果,可成功在两个不同的机器人平台上执行抓取。
Jan, 2013
本文介绍了一种用于视觉模仿学习的简单方法,可以从一个人类演示中学习机器人操作任务,而无需先前了解与对象的交互情况,并且可以通过自监督学习进行训练。在实现过程中,该方法将模仿学习建模为状态估计问题,以目标交互开始时末端执行器的姿态作为状态,在自监督训练过程中让末端执行器的摄像头围绕对象自动移动。 最终,在测试时,机器人通过一条线性路径移动到预测的状态,然后简单地重放演示的末端执行器速度,从而获得了一个复杂的交互轨迹,而无需明确学习策略。在常见的 8 个任务上进行的实现结果表明,这种方法可以从单个人类演示中学习出多样的技能,并产生稳定且可解释的控制器。
May, 2021
本文提出了一种新颖的端到端 “Grasp Proposal Network (GPNet)”,基于离散但规则的 3D 网格角上的 “抓握中心锚点”,用于预测从单个和未知相机视图观察到的物体的多样化 6-DOF 抓握,这有助于实现更好的仿真结果和更好的实际测试结果。
Sep, 2020
该研究提出了一种用于机器人抓取的闭环控制器的学习方法,该方法使用卷积神经网络学习关于图像的真实抓取的距离函数,可以应对虚拟和真实噪声传感器图像中的机械误差,感知误差和抓握时物体的不确定性。
Jun, 2017
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023