本文介绍了一个新的数据集,用于 6-DoF 姿态估计已知物体,在机器人操作研究方面重要。数据集由一组玩具杂货物品组成,旨在方便机器人抓取和操纵,提供了这些物品的 3D 模型和 RGBD 图像,可用于产生合成训练数据,并提出了一个新的姿态评估指标 ADD-H。
Mar, 2022
使用深度神经网络处理机器人 RGB 图像,实现不需要离线校准的单帧相机位姿估计
Nov, 2019
通过使用合成数据,我们提出了一种用于单个 RGB 图像的已知物体 6-DoF 姿态估计的深度神经网络训练方法,成功地跨越了所谓的现实间隙,并通过机器人进行了实时物体姿态估计,取得了与基于真实数据的深度神经网络相当的表现。
Sep, 2018
我们提出了一种从单目 RGB 视频中重建自由移动物体的方法,无需任何先验信息,通过基于隐式神经表示同时优化对象的形状和姿态,其中方法的关键是一个虚拟摄像机系统,显著减小了优化的搜索空间。通过在 HO3D 数据集和佩戴在头部设备上捕获的主观 RGB 序列上的评估,我们证明了该方法明显优于大多数方法,并且与假设先验信息的最新技术相媲美。
May, 2024
本文提出了 RGBD-Grasp 方法,通过卷积神经网络 Angle-View Net(AVN)预测抓手的 SO(3)方向和 FAS 模块计算抓手的张开宽度和与抓点的距离,解决机器人领域中的物体抓取问题,并在 GraspNet-1Billion 数据集上取得了最先进的结果。
Mar, 2021
机器人抓取通常遵循五个阶段:物体检测、物体定位、物体姿态估计、抓取姿态估计和抓取规划。本论文关注于物体姿态估计,我们的方法依赖于物体的多个视角、相机在这些视角下的外部参数以及物体的 3D CAD 模型。我们通过优化不可区分渲染进行了粗略的姿态估计的细化,避免了点云或深度图像等其他信息的需求,并在 ShapeNet 数据集上验证了我们的物体姿态估计方法并显示了超过最先进方法的改进。通过使用标准实践在 Object Clutter Indoor Dataset (OCID) Grasp 数据集中计算出与地面真实抓取候选对象的 99.65%抓取准确度的物体姿态。
Nov, 2023
物体姿态估计是一项核心感知任务,针对单目相机方法,其主要挑战包括遮挡处理、姿态表示、类别级姿态估计以及不确定性估计。
Jul, 2023
使用单个 RGB 摄像头,结合深度学习技术和手部姿态估计技术,实时估计手部的 3D 姿态,拓展了 RGBD 传感器的应用范围。
Dec, 2017
利用 RGBD 图像估算 3D 人体姿态,通过关键点检测器和深度信息实现 3D 提升,在真实环境下通过学习演示框架指示服务机器人模仿人类教师的操作,超越了单眼调色板和深度姿态估计方法的性能。
Mar, 2018
通过单个 RGB 图像进行实时机器人姿态估计的端到端流程,无需已知机器人状态,并达到了领先水平的 12 倍速度提升。
Feb, 2024