GraspXL: 大规模生成多样化物体的抓取动作
本研究提出使用点云观测学习通用的机器人灵巧抓取,将任务分为抓取提案生成和目标条件抓取执行两个阶段,并使用目标条件抓取策略取代运动规划以提高通用性,在大规模机器人灵巧抓取数据集的平凡模型下,通过采样生成高质量多样化的抓取姿势,实现了普适性的抓取方法。
Mar, 2023
该论文介绍了 MultiGrasp,一种用于多指灵巧机械手在桌面上进行多物体抓取的两阶段方法,包括生成抓前提案和执行抓取举起物体。实验结果主要集中在双物体抓取,并报告了 44.13% 的成功率,展示了对未见物体配置和不精确抓取的适应性。该框架还展示了抓取超过两个物体的能力,但推理速度较慢。
Oct, 2023
提出了一种新的人机辅助灵巧抓取任务,该任务旨在训练一个用于控制机器人手指来辅助用户抓取物体的策略。通过提出 Grasping Gradient Field(GraspGF)和基于历史的剩余策略,解决了用户意图多样性和物体几何形状的挑战,实验证明了该方法在实际应用中的用户感知和实用性的优越性。
Sep, 2023
通过引入适合训练机器人的合成数据,我们提出了一个能够生成逼真人类抓取动作的框架,通过对合成数据的纯训练,证明了我们的方法在模拟环境和真实系统中与依赖真实人类动作数据的最先进方法相媲美,并且能够扩展到更多未知物体和人类动作的大规模评估。
Nov, 2023
本研究提出了使用大规模演示学习熟练操作多指手来处理机器人学中最具挑战性的问题。 主要采用人类抓握可行性模型生成 3D 物体演示,以实现策略的泛化。同时,本研究使用了新颖的模仿学习目标,以及几何表示学习目标,通过在仿真系统中重新定位多样的对象以证明本方法的有效性。
Apr, 2022
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023
本文介绍了一个大规模机器人灵巧抓取数据集 DexGraspNet,由于我们提出的高效合成方法生成,可以普遍应用于任何灵巧的机械手。结果显示我们的数据集比以前的具有更多物体和抓取、更高的多样性和质量,并通过多个算法在本数据集上进行的训练,大幅提高了机器人灵巧抓取的准确性。
Oct, 2022
ArtiGrasp 使用强化学习和物理模拟来训练一个控制全局和局部手姿势的策略,以实现包括抓取和关节运动的双手 - 物体交互,并通过逐渐增加的难度的学习课程实现精确的手指控制。
Sep, 2023