ASGrasp: 从 RGB-D 主动立体相机进行可迁移的透明物体重建与抓取
ClearGrasp 是一种基于深度学习的方法,能够从单个 RGB-D 图像中准确估计透明物体的 3D 几何形状,以应对透明度对 3D 传感器造成的困扰,其表现优于单眼深度估计基线,并可广泛适用于实际物体的抓取改善。
Oct, 2019
本文提出了首个基于 RGB 图像的 6 自由度机器人抓取方法 MonoGraspNet,通过利用稳定的 2D 特征以及关键点热度图和法向量图来同时解决处理透明或反射材料等光学难题,实验表明我们的方法在抓取常见物体方面能够达到有竞争性的结果,并在在抓取光学难题物体方面领先于深度学习方法,此外我们也公开了一个包含 120 个物品的多视角多场景数据集和 2000 万的准确抓取标签。
Sep, 2022
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
本文提出了一种基于多视角 RGB 的 6 自由度预抓取检测网络 GraspNeRF,利用可转换的神经辐射场(NeRF)实现材料无关的物体预抓取,在杂乱的环境下可实时检测出 6 自由度的抓取,实验结果表明该方法在合成和真实环境中表现优异。
Oct, 2022
通过编码形状和有效抓取的连续潜空间,CenterGrasp 框架结合了物体识别和整体抓取,实现了场景的强场景重建和六自由度抓取 - 姿态估计性能的显著改进。
Dec, 2023
本文介绍了一种基于学习抓取提案网络和学习三维形状重建网络的机器人抓取规划方法,使用几何重建来优化抓取提案网络生成的抓取点,实现了在图像中看不到抓取位置的情况下,对已知和未知物体进行准确抓取。实验结果表明,与其他模型相比,该方法在抓取任务中取得了更高的成功率。
Mar, 2020
本研究提供了一种基于深度学习网络的方法,针对普通深度传感器获取透明物体深度信息的难题,构建了一个大规模真实场景数据集,同时提出了一种深度完成网络用于输出精度更高的透明物体深度信息,并且该方法能够成功地应用于机器人对透明物体的抓取。
Feb, 2022
通过使用单个 RGB 图像进行模块化学习网络来检测抓取姿势,本研究提出了一种有趣的方法,适用于配备平板夹具的机器人,不仅识别可抓取的物体,还将先前的抓取分析与语义分割融合,从而提高抓取检测精度,并且在处理模糊和嘈杂的视觉情况时表现出弹性,通过实际实验和评估证明了我们提出的方法的可行性和准确性。
Oct, 2023
通过使用 RGB-D 数据流和视觉技术,本研究提出了一种自动生成并适应新物体姿态的抓取轨迹的方法,通过将轨迹相对于物体框架进行投影,实现了在多个不同机器人设置和物体上的抓取任务的高效执行。
Oct, 2023