平面多目标抓取
该论文介绍了 MultiGrasp,一种用于多指灵巧机械手在桌面上进行多物体抓取的两阶段方法,包括生成抓前提案和执行抓取举起物体。实验结果主要集中在双物体抓取,并报告了 44.13% 的成功率,展示了对未见物体配置和不精确抓取的适应性。该框架还展示了抓取超过两个物体的能力,但推理速度较慢。
Oct, 2023
本研究提出了一种基于部分点云观察的,用于在杂乱场景中规划指定物体 6 自由度抓取的方法,其性能比基线方法高出 17.6%,能够成功清理包含 23 个未知物体和 51 次抓取操作的 9 个杂乱桌面场景,并利用我们学习到的碰撞检查模块来推理有效的抓取顺序,以检索不易到达的物体。
Dec, 2019
我们提出了一种无需 3D 手物体交互数据的策略学习框架 GraspXL,通过统一多种运动目标、多样化的物体形状和灵巧的手形态,可以可靠地合成多样化的抓取运动,且能够在超过 500,000 个未知物体中的 82.2% 上成功。
Mar, 2024
通过利用机器人的可达性、环境的 RGB-D 图像和占用栅格图,提出了一种服务机器人工作流中的机器人位置选择算法,通过选择机器人位置以实现成功抓取目标对象,从而与现有的基线实现相比,改善了机器人在具有挑战性位置上抓取目标物体的能力。
May, 2024
本文提出了一种深度学习架构,用于预测机器人操作的适合抓取的位置,通过使用 RGB-D 图像输入的深度神经网络实现对单个或多个对象的多个抓取候选项的预测,实验表明该方法在 Cornell 数据集上表现优于其他方法,在掌握实验中也获得了不错的成功率。
Feb, 2018
将物理常识推理融入机器人操作,通过 PhyGrasp 模型结合自然语言和 3D 点云输入,实现对对象的物理属性准确评估和最优抓取位姿决策。模型的语言理解能力使其能够解释人类指令,并生成符合人类偏好的抓取位姿。在长尾场景中,PhyGrasp 取得了最先进的性能,成功率比 GraspNet 提高了约 10%。
Feb, 2024
本文介绍了一种新的方法,通过感知系统提供场景中所有物体的几何和语义信息,同时提供这些物体的可行抓取,以加速机器人操作的复杂度。通过详细的定量分析,我们展示了我们的方法通过在 30 帧 / 秒速度下提供竞争性能,以比较专门用于物体形状、姿态和抓取预测的最新技术方法。
May, 2023
该论文提出了一种用于多吸盘吸取夹具的无模型预测抓取姿势的新方法,通过神经网络预测了图像中像素级别的抓取质量,进而确定了最佳夹具选择和相应的抓取姿势,同时引入了一种用于训练抓取质量网络的自动标注方法。在具有不同难度的实际工业应用中进行的实验评估证明了我们方法的有效性。
Jul, 2023
本文介绍了一种具有抓取和识别能力的机器人抓取和放置系统,它可以在杂乱的环境中识别已知和新颖物体。该系统具有广泛的物品类别,无需为新物品准备任务特定的训练数据。实验结果表明,我们的多面抓取实现了高成功率,并且我们的识别算法实现了高准确率,是 Amazon Robotics Challenge 2017 中获得第一名的 MIT-Princeton Team 系统的一部分。
Oct, 2017