点云中的抓取姿态检测
本研究旨在利用深度传感器扫描的大型在线数据集来训练卷积神经网络,通过两种新的抓取候选表示方法实现对 6 自由度抓取候选的分类来提高抓取方法的成功率,在 Baxter 研究机器人上的实验中,相对于以前的研究成果,我们的方法有了 20%的提高,平均抓取成功率达到了 93%。
Mar, 2016
本论文提出了一种端到端的夹持评估模型 (PointNetGPD),可以直接从三维点云中定位机器人夹持配置,采用 350k 点云与夹持数据集来训练,并经过在仿真和实际机器人硬件上的实验测试,结果表明该模型具有较好的泛化性并优于现有的方法。
Sep, 2018
本文针对基于视觉的机器人抓取进行了综合调查,总结了视觉基于机器人抓取的三个关键任务:物体定位、物体位姿估计和抓取估计,并详细介绍了这些任务中的传统方法和最新的基于 RGB-D 图像输入的深度学习方法,并总结了相关数据集和最先进方法之间的比较,同时也指出了视觉基于机器人抓取面临的挑战和未来方向。
May, 2019
通过分析三维点云中的对象几何形状(简单和复杂),提出了一种基于 PointGrasp 的实时系统,用于识别日常生活中的家居场景,并支持和增强日常活动中的定制化端到端抓取任务,实现可达对象的定位和识别。该系统在简单和复杂几何形状的情况下,平均 RMSE 为 0.8±0.39 cm 和 0.11±0.06 cm,展示了在视觉驱动的机器人辅助康复手动任务中的潜力。
Mar, 2024
本文介绍了一种新的方法,通过感知系统提供场景中所有物体的几何和语义信息,同时提供这些物体的可行抓取,以加速机器人操作的复杂度。通过详细的定量分析,我们展示了我们的方法通过在 30 帧 / 秒速度下提供竞争性能,以比较专门用于物体形状、姿态和抓取预测的最新技术方法。
May, 2023
本文提出了一种基于学习的方法,用于在点云数据中完成刚性物体的 6 自由度姿态估计,并且相比于使用 RGB 信息进行物体检测的方法,本方法可以通过初始检测到最终转换估计阶段处理无序的点集来实现准确的姿态估计,有些情况下还能够超过在相同数据上训练的最先进的方法.
Dec, 2019
本文提出了一种端到端的方法,用于直接预测所有抓取的姿态,类别和得分,并介绍了一种快速的基于 Ferrari Canny 度量的多目标抓取检测算法。该方法无需采样或搜索过程,使用整个稀疏点云作为输入。实验表明,该方法的成功率和完成率均优于当前最先进的方法。
Mar, 2020
有效、健壮的抓取姿势检测对于机器人操作至关重要。本论文提出了基于几何线索的质量度量指标 “抓持度”,并发展了一种神经网络模型 GSNet,以加速抓持度的检测,实验证明了该模型的稳定性、通用性和有效性,为各种先前方法提供了显著的准确度提升。
Jun, 2024
该论文介绍了一种基于深度信息的机器人手臂感知与图像识别框架,包括自适应手指检测、点云数据处理、全局位姿估计、轨迹规划与性能分析等组件,该框架可以实现对高度遮挡物体进行精准的位姿估计与反应迅速的操作控制。
Mar, 2020
提出了一种基于模型表述和二次曲面适配的 3D 点云机器人夹持的新方法,有效快速地定位包络夹持能力,实现智能抓取。
Nov, 2013