DexYCB: 捕捉手部抓握物品的基准测试
本文介绍了一个大规模机器人灵巧抓取数据集 DexGraspNet,由于我们提出的高效合成方法生成,可以普遍应用于任何灵巧的机械手。结果显示我们的数据集比以前的具有更多物体和抓取、更高的多样性和质量,并通过多个算法在本数据集上进行的训练,大幅提高了机器人灵巧抓取的准确性。
Oct, 2022
为了评估机器人在现实世界中的操作能力,我们提出了一个新的可重复使用的基准测试,着重于抓取和放置。我们使用机器人学界常用的 YCB 对象数据集来确保结果可与其他研究进行比较。此外,该基准测试旨在易于在实际环境中进行重现,使其可供研究人员和实践者使用。我们在基准测试中提供了基于模型和无模型 6D 机器人抓握的实验结果和分析,评估了代表性算法的物体感知、抓握规划和运动规划。我们相信,这个基准测试将是推进机器人操作领域的宝贵工具。通过提供标准化的评估框架,研究人员可以更容易地比较不同的技术和算法,从而更快地发展机器人操作方法。
Jun, 2023
该研究通过收集一个新的名为 GRAB 的数据集,包含 10 个零件与 51 个日常物品的互动,详细描述了人类整体抓握物品的过程。通过这个数据集,研究者运用生成式网络训练预测人类手部抓握姿态的模型,以帮助更好地理解人体与物品的互动过程。
Aug, 2020
在这篇论文中,我们介绍了 RealDex—— 一个捕捉了真实灵巧手部抓握动作的先驱数据集,其中融入了人类行为模式,丰富了多视角和多模态的视觉数据。使用远程操作系统,我们实时无缝地同步人 - 机器手的姿态。这个类似人类运动的集合对于训练灵巧手更自然、更准确地模仿人类动作至关重要。RealDex 在推动人形机器人在现实世界场景中的自动感知、认知和操作方面具有巨大潜力。此外,我们介绍了一种先进的灵巧抓握动作生成框架,通过有效利用多模态的大型语言模型与人类经验相吻合,增强了其在现实世界的应用能力。大量实验证明了我们的方法在 RealDex 和其他公开数据集上的出色性能。完整的数据集和代码将在本文发表后提供。
Feb, 2024
本文介绍了用于机器人操纵、假肢设计和康复研究的 Yale-CMU-Berkeley (YCB) 对象和模型集,并提供了一个框架和许多示例任务协议,以定量评估规划、学习、机械设计、控制等各种操纵方法的集合。
Feb, 2015
本研究介绍了一个包含来自 7 种不同 3D 相机拍摄的 32 个场景的数据集,可用于评估相机特性对位姿估计算法的敏感性,开发更稳健的算法以及进行多种不同相机和深度感测技术之间的数据比较和算法评估。该数据集包含来自 YCB 目标和模型集的 20 个不同对象,提供每个对象的完整基准数据,并对每个对象的遮挡程度进行了测量。在该数据集上使用最先进的目标识别和位姿估计系统对相机进行了初步评估。
Apr, 2020
提出了一种基于多型机械手的手无偏见抓取算法 GenDexGrasp,该算法利用接触映射作为机械手无偏见中间表示,采用力闭合优化综合生成了大规模的多手抓取数据集 MultiDex。与先前的方法相比,GenDexGrasp 在成功率、推断速度和多样性之间实现了三重平衡。
Oct, 2022
介绍了一种新的捕捉方法和跟踪系统,自动获取 21 个关节点的手部姿势数据,并通过新数据集和卷积神经网络对自我视角手势估计和交叉基准性能进行显著改进。
Apr, 2017
本论文介绍了一个名为 TaskGrasp 的数据集和一个名为 GCNGrasp 的机器人抓取框架,用语义知识来进行任务驱动的物体抓取。实验结果表明,该模型在处理新对象和新任务方面具有更高的泛化能力。
Nov, 2020
本文提出了 DexVIP,一种从人 - 物体交互中学习灵巧机器人抓取的方法,并在 30 自由度的模拟机器人手上进行了 27 个物体的实验,证明 DexVIP 比现有方法快速且更具效率。
Feb, 2022