D-Grasp:手 - 物互动中物理合理的动态抓取合成
我们提出了一种基于物理的方法来合成全身手物交互。通过通过一个层次化框架,并结合强化学习和物理仿真,我们首先在解耦环境中学习身体和手部运动的技能先验。然后,我们使用一个新颖的奖励函数训练一个高层策略,以在预训练的潜在空间中控制手物交互。我们的方法成功完成了从接近物体到抓取和后续操纵的完整交互任务,并展示出比基于运动学的基线方法更具物理合理性的动作。
Sep, 2023
ArtiGrasp 使用强化学习和物理模拟来训练一个控制全局和局部手姿势的策略,以实现包括抓取和关节运动的双手 - 物体交互,并通过逐渐增加的难度的学习课程实现精确的手指控制。
Sep, 2023
本篇研究通过介绍一种新的中间变量来提高三维抓取合成的效率,以解决现有方法想要直接从物体映射到抓取姿势的非光滑和低效问题,并提出了一种基于接触区域的因子图形式来描述抓取姿态生成过程,并通过实验验证了优化方法的有效性。
Oct, 2022
通过引入适合训练机器人的合成数据,我们提出了一个能够生成逼真人类抓取动作的框架,通过对合成数据的纯训练,证明了我们的方法在模拟环境和真实系统中与依赖真实人类动作数据的最先进方法相媲美,并且能够扩展到更多未知物体和人类动作的大规模评估。
Nov, 2023
我们提出了一种无需 3D 手物体交互数据的策略学习框架 GraspXL,通过统一多种运动目标、多样化的物体形状和灵巧的手形态,可以可靠地合成多样化的抓取运动,且能够在超过 500,000 个未知物体中的 82.2% 上成功。
Mar, 2024
本文介绍了一种名为 Grasp'D 的方法,它使用可微分接触模拟技术从多指模型的已知模型和视觉输入中实现了掌握合成,其可以在高自由度机械手中稳定、高效、物理现实地实现高接触掌握合成,与解析掌握合成相比,Grasp’D 的结果可以实现 4 倍以上的接触和更高的稳定性。
Aug, 2022
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023
以对象抓取部分的文本提示为引导,提出了一种文本引导的抓取合成方法,该方法包括一个文本引导的扩散模型 TextGraspDiff 和一个手 - 物体接触优化过程,以确保合理性和多样性,实验结果验证了该方法在精确的部位级别抓取控制和抓取质量方面的可比性。
Apr, 2024