通过一种端到端的神经网络,将深度记录的场景直接转化为 6 个自由度平行夹具抓取的分布,其独特的抓取表示法将点云的 3D 点作为潜在的抓取接触点,并将 6 个自由度的抓取姿态与宽度根据观察到的点云减少到 4 个自由度,成功率可达 90% 以上。
Mar, 2021
本研究旨在利用深度传感器扫描的大型在线数据集来训练卷积神经网络,通过两种新的抓取候选表示方法实现对 6 自由度抓取候选的分类来提高抓取方法的成功率,在 Baxter 研究机器人上的实验中,相对于以前的研究成果,我们的方法有了 20%的提高,平均抓取成功率达到了 93%。
Mar, 2016
本研究提出了一种基于部分点云观察的,用于在杂乱场景中规划指定物体 6 自由度抓取的方法,其性能比基线方法高出 17.6%,能够成功清理包含 23 个未知物体和 51 次抓取操作的 9 个杂乱桌面场景,并利用我们学习到的碰撞检查模块来推理有效的抓取顺序,以检索不易到达的物体。
Dec, 2019
本文提出了一种新颖的端到端 “Grasp Proposal Network (GPNet)”,基于离散但规则的 3D 网格角上的 “抓握中心锚点”,用于预测从单个和未知相机视图观察到的物体的多样化 6-DOF 抓握,这有助于实现更好的仿真结果和更好的实际测试结果。
Sep, 2020
本文介绍了一种新的方法,通过感知系统提供场景中所有物体的几何和语义信息,同时提供这些物体的可行抓取,以加速机器人操作的复杂度。通过详细的定量分析,我们展示了我们的方法通过在 30 帧 / 秒速度下提供竞争性能,以比较专门用于物体形状、姿态和抓取预测的最新技术方法。
May, 2023
利用变分自编码器和夹取评估模型采样一组夹取,并在模拟和真实机器人实验中评价和修正采样到的夹取,以实现抓取生成。通过纯模拟训练,可在不进行任何额外步骤的情况下运行于实际机器人操作中,具有较高的成功率。
May, 2019
通过引入多物体的力闭合约束、物体的平整度、重力以及碰撞等物理特征,设计了一个混合力学统计度量方法,提出了 Flatness Gravity Collision GraspNet(FGC-GraspNet)模型,利用多分辨率网络结构生成精细的置信度分数,该模型有效提高了抓取检测的平均精度,并在实际机器人实验中表现出良好的性能。
Jun, 2022
该论文通过领域适应问题将 RGB-D 抓握检测的问题转变为 sim-to-real 问题,并提出了一种全局到局部的方法来解决 RGB 和深度数据之间的差距以及多模态特征对齐的不足。在大量实验中,该方法显著减小了领域转移,并获得了令人满意的结果,证明了其有效性。
Mar, 2024
本文提出了一种深度学习架构,用于预测机器人操作的适合抓取的位置,通过使用 RGB-D 图像输入的深度神经网络实现对单个或多个对象的多个抓取候选项的预测,实验表明该方法在 Cornell 数据集上表现优于其他方法,在掌握实验中也获得了不错的成功率。
Feb, 2018
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023