深度学习用于机器人抓取检测
本论文提出了一种新颖的机器人抓取检测系统,该系统使用深度卷积神经网络从场景中提取特征并使用浅层卷积神经网络来预测感兴趣目标的抓取配置,取得了 89.21%的准确率和实时的运行速度,重新定义了机器人抓取检测的技术水平。
Nov, 2016
通过使用单个 RGB 图像进行模块化学习网络来检测抓取姿势,本研究提出了一种有趣的方法,适用于配备平板夹具的机器人,不仅识别可抓取的物体,还将先前的抓取分析与语义分割融合,从而提高抓取检测精度,并且在处理模糊和嘈杂的视觉情况时表现出弹性,通过实际实验和评估证明了我们提出的方法的可行性和准确性。
Oct, 2023
本文提出了一种深度学习架构,用于预测机器人操作的适合抓取的位置,通过使用 RGB-D 图像输入的深度神经网络实现对单个或多个对象的多个抓取候选项的预测,实验表明该方法在 Cornell 数据集上表现优于其他方法,在掌握实验中也获得了不错的成功率。
Feb, 2018
本文基于深度学习和边缘云协作提出了机械臂抓取方法,并考虑了抓取效率和信息安全。使用 GAN 训练的编码器和解码器实现了图像加密压缩,同时保护了隐私安全,在 OCID 数据集上实现了 92% 的准确率、0.03% 的图像压缩比和 0.91 的结构差异度。
Sep, 2022
本文介绍了一种基于学习抓取提案网络和学习三维形状重建网络的机器人抓取规划方法,使用几何重建来优化抓取提案网络生成的抓取点,实现了在图像中看不到抓取位置的情况下,对已知和未知物体进行准确抓取。实验结果表明,与其他模型相比,该方法在抓取任务中取得了更高的成功率。
Mar, 2020
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
本文介绍了一种基于卷积神经网络的准确、实时的机器人抓取检测方法,该网络可以在单个阶段内执行分类并查找一个优质的抓取矩形,并使用局部约束机制预测每个对象的多重抓取,比现有方法高 14 个百分点性能更好,尤其是对于可以用不同方式抓取的物体。
Dec, 2014
通过卷积神经网络对单目图像进行学习,实现机器人抓握的手眼协调,并能实现实时控制、成功抓握陌生物体,以及通过连续伺服调节校正抓握错误。
Mar, 2016
本文提出了首个基于 RGB 图像的 6 自由度机器人抓取方法 MonoGraspNet,通过利用稳定的 2D 特征以及关键点热度图和法向量图来同时解决处理透明或反射材料等光学难题,实验表明我们的方法在抓取常见物体方面能够达到有竞争性的结果,并在在抓取光学难题物体方面领先于深度学习方法,此外我们也公开了一个包含 120 个物品的多视角多场景数据集和 2000 万的准确抓取标签。
Sep, 2022
本研究旨在利用深度传感器扫描的大型在线数据集来训练卷积神经网络,通过两种新的抓取候选表示方法实现对 6 自由度抓取候选的分类来提高抓取方法的成功率,在 Baxter 研究机器人上的实验中,相对于以前的研究成果,我们的方法有了 20%的提高,平均抓取成功率达到了 93%。
Mar, 2016