基于混合物理度量的六自由度抓取姿态检测
本文关注于 6 自由度抓取检测方法的泛化能力。通过引入机器人抓握的领域先验知识,通过物理约束正则化和接触得分联合优化,提升了模型的泛化能力,并在实验中证明了该方法的有效性。
Apr, 2024
本篇论文提出了一种利用深度神经网络进行无监督或有限监督机械抓取学习的算法,该算法包括机械臂前向运动、与目标物体的碰撞检测、抓取姿态评价指标的构建,并且通过优化问题的敏感度分析提出了通用的 Q1 抓取评价指标,其中用到 watertight 三角形网格,实现了在各种 3D 形状数据集上比传统方法更高效率和鲁棒度的抓取姿态的学习和训练。
Feb, 2020
本研究旨在利用深度传感器扫描的大型在线数据集来训练卷积神经网络,通过两种新的抓取候选表示方法实现对 6 自由度抓取候选的分类来提高抓取方法的成功率,在 Baxter 研究机器人上的实验中,相对于以前的研究成果,我们的方法有了 20%的提高,平均抓取成功率达到了 93%。
Mar, 2016
本文介绍了一种新的方法,通过感知系统提供场景中所有物体的几何和语义信息,同时提供这些物体的可行抓取,以加速机器人操作的复杂度。通过详细的定量分析,我们展示了我们的方法通过在 30 帧 / 秒速度下提供竞争性能,以比较专门用于物体形状、姿态和抓取预测的最新技术方法。
May, 2023
本文提出了首个基于 RGB 图像的 6 自由度机器人抓取方法 MonoGraspNet,通过利用稳定的 2D 特征以及关键点热度图和法向量图来同时解决处理透明或反射材料等光学难题,实验表明我们的方法在抓取常见物体方面能够达到有竞争性的结果,并在在抓取光学难题物体方面领先于深度学习方法,此外我们也公开了一个包含 120 个物品的多视角多场景数据集和 2000 万的准确抓取标签。
Sep, 2022
将物理常识推理融入机器人操作,通过 PhyGrasp 模型结合自然语言和 3D 点云输入,实现对对象的物理属性准确评估和最优抓取位姿决策。模型的语言理解能力使其能够解释人类指令,并生成符合人类偏好的抓取位姿。在长尾场景中,PhyGrasp 取得了最先进的性能,成功率比 GraspNet 提高了约 10%。
Feb, 2024
本论文提出了一种端到端的夹持评估模型 (PointNetGPD),可以直接从三维点云中定位机器人夹持配置,采用 350k 点云与夹持数据集来训练,并经过在仿真和实际机器人硬件上的实验测试,结果表明该模型具有较好的泛化性并优于现有的方法。
Sep, 2018
通过一种端到端的神经网络,将深度记录的场景直接转化为 6 个自由度平行夹具抓取的分布,其独特的抓取表示法将点云的 3D 点作为潜在的抓取接触点,并将 6 个自由度的抓取姿态与宽度根据观察到的点云减少到 4 个自由度,成功率可达 90% 以上。
Mar, 2021
本文提出了一种深度学习架构,用于预测机器人操作的适合抓取的位置,通过使用 RGB-D 图像输入的深度神经网络实现对单个或多个对象的多个抓取候选项的预测,实验表明该方法在 Cornell 数据集上表现优于其他方法,在掌握实验中也获得了不错的成功率。
Feb, 2018