基于 RGB 图像的机器人抓取检测的模块化抗噪声深度学习网络
本论文提出了一种新颖的机器人抓取检测系统,该系统使用深度卷积神经网络从场景中提取特征并使用浅层卷积神经网络来预测感兴趣目标的抓取配置,取得了 89.21%的准确率和实时的运行速度,重新定义了机器人抓取检测的技术水平。
Nov, 2016
运用深度学习方法解决机器人抓取问题,通过多模态组规则化结构化正则化权重来处理多模态输入,实现了比之前最先进方法更好的效果,可成功在两个不同的机器人平台上执行抓取。
Jan, 2013
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
本文提出了一种深度学习架构,用于预测机器人操作的适合抓取的位置,通过使用 RGB-D 图像输入的深度神经网络实现对单个或多个对象的多个抓取候选项的预测,实验表明该方法在 Cornell 数据集上表现优于其他方法,在掌握实验中也获得了不错的成功率。
Feb, 2018
本文提出了首个基于 RGB 图像的 6 自由度机器人抓取方法 MonoGraspNet,通过利用稳定的 2D 特征以及关键点热度图和法向量图来同时解决处理透明或反射材料等光学难题,实验表明我们的方法在抓取常见物体方面能够达到有竞争性的结果,并在在抓取光学难题物体方面领先于深度学习方法,此外我们也公开了一个包含 120 个物品的多视角多场景数据集和 2000 万的准确抓取标签。
Sep, 2022
本文介绍了一种基于学习抓取提案网络和学习三维形状重建网络的机器人抓取规划方法,使用几何重建来优化抓取提案网络生成的抓取点,实现了在图像中看不到抓取位置的情况下,对已知和未知物体进行准确抓取。实验结果表明,与其他模型相比,该方法在抓取任务中取得了更高的成功率。
Mar, 2020
提出了一个名为 NBMOD 的大规模抓取检测数据集,包含 20 种不同类型的水果的 31,500 张 RGB-D 图像,以及用于解决定向边界框检测任务的旋转锚定机制(RAM)和一系列轻量级结构,其中 RAGT-3/3 模型在 NBMOD 数据集上实现了 99%的准确率。
Jun, 2023
本文介绍了一种基于卷积神经网络的准确、实时的机器人抓取检测方法,该网络可以在单个阶段内执行分类并查找一个优质的抓取矩形,并使用局部约束机制预测每个对象的多重抓取,比现有方法高 14 个百分点性能更好,尤其是对于可以用不同方式抓取的物体。
Dec, 2014
提出了一种改进的流水线模型,用于检测不同可见或不可见对象的矩形表示,以实现机器人的实时掌握,通过预处理、输出归一化和数据增强来提高准确性,并对 AlexNet、ResNet 和 Vgg19 等不同预训练模型进行了比较。尽管 AlexNet 比其他模型复杂度更低,但它表现出色,有助于实现实时性。
Mar, 2024
使用卷积神经网络,采用 RGB-D 架构,通过两个不同模式的 CNN 处理流程结合延迟融合网络来识别物体,同时引入多阶段训练方法以及进行数据增强方案,使得处理 RGB-D 图像更加健壮,同时在真实嘈杂环境中取得了最先进的识别结果。
Jul, 2015