通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023
本论文介绍了一个名为 TaskGrasp 的数据集和一个名为 GCNGrasp 的机器人抓取框架,用语义知识来进行任务驱动的物体抓取。实验结果表明,该模型在处理新对象和新任务方面具有更高的泛化能力。
Nov, 2020
通过简单的人类示范,我们提出了一种既不需要大量标注图像,也不受特定几何形状限制的机器人抓取方法:利用一个小的 RGB-D 图像序列构建相关的手和物体网格模型,然后在当前环境中估计物体的姿态并转移所需的抓取指令。
Dec, 2021
通过分析三维点云中的对象几何形状(简单和复杂),提出了一种基于 PointGrasp 的实时系统,用于识别日常生活中的家居场景,并支持和增强日常活动中的定制化端到端抓取任务,实现可达对象的定位和识别。该系统在简单和复杂几何形状的情况下,平均 RMSE 为 0.8±0.39 cm 和 0.11±0.06 cm,展示了在视觉驱动的机器人辅助康复手动任务中的潜力。
Mar, 2024
该研究通过收集一个新的名为 GRAB 的数据集,包含 10 个零件与 51 个日常物品的互动,详细描述了人类整体抓握物品的过程。通过这个数据集,研究者运用生成式网络训练预测人类手部抓握姿态的模型,以帮助更好地理解人体与物品的互动过程。
Aug, 2020
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
本文提出了一个任务导向抓取网络 (TOG-Net),通过大规模模拟自我监督与程序生成的工具对象,同时优化工具的任务导向抓取和操纵策略。模型在打扫和敲打两个任务中表现出较高的成功率,并取得了显著的效果。
Jun, 2018
本文提出了一种机器人抓取系统,使用单个外部单目 RGB 摄像头作为输入,在不同的神经网络的协同作用下模拟抓取各种家庭物品的过程。
本文介绍了一个新的数据集,用于 6-DoF 姿态估计已知物体,在机器人操作研究方面重要。数据集由一组玩具杂货物品组成,旨在方便机器人抓取和操纵,提供了这些物品的 3D 模型和 RGBD 图像,可用于产生合成训练数据,并提出了一个新的姿态评估指标 ADD-H。
Mar, 2022
本文旨在从单目视频中获取手部和操纵对象的三维重构,提出了一种学习免费的拟合方法以应用于无法获取训练数据且具有不同难度等级的数据集,并量化评估了该方法。
Aug, 2021