MetaGrasp: 基于场景感知解释网络的数据高效抓取
本文提出了一种基于 Markov 逻辑网络的方法,以视觉输入数据为基础来检测和提取物体的多个握取能力,通过多个语义属性的组合预测握取能力,通过学习典型的抓握图案使方法具有广泛的泛化能力,结果表明该方法在握取预测的新实例上具有良好的泛化能力。
Jun, 2019
Robotic manipulation of ungraspable objects is improved using the PreAfford pre-grasping planning framework, leading to a significant increase in grasping success rates.
Apr, 2024
本文介绍了 EfficientGrasp,它是一种与机械手规格无关的抓握合成和夹爪控制方法。它使用夹爪工作空间特征,可以用更少的数据训练生成更多类型的夹爪,且在模拟和真实环境下的对象抓握实验中,未带环回约束的夹爪的成功率提高了 3.10%,在带有环回约束的夹爪中的成功率为 83.3%。
Jun, 2022
本文提出了一种新的大型语言引导的形状抓取数据集(名为 Lang-SHAPE),用于学习 3D 部件的 affordance 和抓握能力,还设计了一种新颖的两阶段细粒度机器人抓握网络(名为 PIONEER)进行模型测试。结果表明,我们的方法在参考标识、affordance 推理和 3D 部分感知抓握方面实现了令人满意的性能和效率。
Jan, 2023
使用合成数据和领域自适应,可以将在真实世界中所需的样本数缩减至只使用随机生成的合成对象,并且可以使用无标签的真实世界数据和 GraspGAN 方法来获得类似于使用 939,777 个标记的真实世界样本所达到的真实世界抓取性能。
Sep, 2017
采用模块化神经网络体系结构,利用合成数据和模拟技术,通过低维潜在表示生成场景可用性,成功训练机械臂政策。同时,提出了一种数据集生成方法,可轻松推广到新任务、对象和环境,无需手动像素标记。
Mar, 2019
本文提出了一种基于属性的机器人抓取的端到端学习方法,利用门控 - 注意力机制融合了工作空间图像和查询文本的嵌入,学习预测实例抓取可行性,并利用抓取前后的对象持久性学习了视觉和文本属性的联合度量空间。模型在模拟中自我监督,可推广到新的对象和真实场景,并演示了只用一个抓取数据即可适应新对象的能力。在未知对象上,实验结果表明,我们的方法实现了超过 80%的实例抓取成功率,优于几个基准模型。
Apr, 2021
本研究介绍了一种在深度强化学习循环中嵌入面向对象视觉助力模型的方法,以学习优先选择与人类喜欢的对象区域相同的抓握策略,实现对物体的灵活抓握能力。通过 40 个物体的实验,表明该方法可以显著提高抓握策略效能,泛化能力较强,比普通基线方法的训练速度更快,且更能适应噪声传感器。
Sep, 2020
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023
本论文介绍了 Grasp-Anything++,一种新的以自然语言为驱动的抓握检测数据集,包含超过 100 万个样本、300 多万个物体和 1000 万个抓握指令。我们提出了基于扩散模型的新型语言驱动抓握检测方法,通过对抓握指令进行去噪处理来检测抓握姿势,并展示了我们的方法在理论上的支持以及在实验证明了它的优越性能。同时,我们的大规模数据集为零短抓握检测提供了支持,并成为未来工作的挑战性基准。
Jun, 2024