本论文提出了一种新颖的机器人抓取检测系统,该系统使用深度卷积神经网络从场景中提取特征并使用浅层卷积神经网络来预测感兴趣目标的抓取配置,取得了 89.21%的准确率和实时的运行速度,重新定义了机器人抓取检测的技术水平。
Nov, 2016
运用深度学习方法解决机器人抓取问题,通过多模态组规则化结构化正则化权重来处理多模态输入,实现了比之前最先进方法更好的效果,可成功在两个不同的机器人平台上执行抓取。
Jan, 2013
通过使用单个 RGB 图像进行模块化学习网络来检测抓取姿势,本研究提出了一种有趣的方法,适用于配备平板夹具的机器人,不仅识别可抓取的物体,还将先前的抓取分析与语义分割融合,从而提高抓取检测精度,并且在处理模糊和嘈杂的视觉情况时表现出弹性,通过实际实验和评估证明了我们提出的方法的可行性和准确性。
Oct, 2023
本文基于深度学习和边缘云协作提出了机械臂抓取方法,并考虑了抓取效率和信息安全。使用 GAN 训练的编码器和解码器实现了图像加密压缩,同时保护了隐私安全,在 OCID 数据集上实现了 92% 的准确率、0.03% 的图像压缩比和 0.91 的结构差异度。
Sep, 2022
本文介绍了一种基于卷积神经网络的准确、实时的机器人抓取检测方法,该网络可以在单个阶段内执行分类并查找一个优质的抓取矩形,并使用局部约束机制预测每个对象的多重抓取,比现有方法高 14 个百分点性能更好,尤其是对于可以用不同方式抓取的物体。
Dec, 2014
使用卷积神经网络,采用 RGB-D 架构,通过两个不同模式的 CNN 处理流程结合延迟融合网络来识别物体,同时引入多阶段训练方法以及进行数据增强方案,使得处理 RGB-D 图像更加健壮,同时在真实嘈杂环境中取得了最先进的识别结果。
Jul, 2015
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
本文提出了首个基于 RGB 图像的 6 自由度机器人抓取方法 MonoGraspNet,通过利用稳定的 2D 特征以及关键点热度图和法向量图来同时解决处理透明或反射材料等光学难题,实验表明我们的方法在抓取常见物体方面能够达到有竞争性的结果,并在在抓取光学难题物体方面领先于深度学习方法,此外我们也公开了一个包含 120 个物品的多视角多场景数据集和 2000 万的准确抓取标签。
本文介绍了一种基于学习抓取提案网络和学习三维形状重建网络的机器人抓取规划方法,使用几何重建来优化抓取提案网络生成的抓取点,实现了在图像中看不到抓取位置的情况下,对已知和未知物体进行准确抓取。实验结果表明,与其他模型相比,该方法在抓取任务中取得了更高的成功率。
Mar, 2020
通过简单的人类示范,我们提出了一种既不需要大量标注图像,也不受特定几何形状限制的机器人抓取方法:利用一个小的 RGB-D 图像序列构建相关的手和物体网格模型,然后在当前环境中估计物体的姿态并转移所需的抓取指令。
Dec, 2021