评估 6-DOF 物体跟踪器的框架
利用深度学习,我们提出了一种基于时间的 6 自由度跟踪方法,可在具有挑战性的真实世界数据集中实现最先进的性能,具有比现有最佳方法更准确、更鲁棒的抗遮挡性能,同时保持实时性能。在评估其效力时,我们在几个具有挑战性的 RGBD 序列上进行了评估,并通过一系列对象逐渐被遮挡的序列系统地评估了对遮挡的鲁棒性。最后,我们的方法完全是数据驱动的,不需要任何手动设计的特征:鲁棒跟踪是自动从数据中学习的。
Mar, 2017
通过引入 Robust6DoF 跟踪器和 PAD-Servo 去实现航空机器人操控的最终视觉引导任务,本篇论文研究了航空机器人操控领域中的物体六自由度姿态追踪问题,并进行了详细的实验验证。
Jan, 2024
本文介绍了一个新的数据集,用于 6-DoF 姿态估计已知物体,在机器人操作研究方面重要。数据集由一组玩具杂货物品组成,旨在方便机器人抓取和操纵,提供了这些物品的 3D 模型和 RGBD 图像,可用于产生合成训练数据,并提出了一个新的姿态评估指标 ADD-H。
Mar, 2022
本文介绍了一种基于深度卷积神经网络的方法,能够通过对特定对象类的分类和姿态回归,从单个或多视图中准确地推断大量对象类的六自由度姿态,并通过 SE(3)的均匀镶嵌提高了鲁棒性。作者还提出了一种适用于单视角存在歧义的高效多视图框架,并在 YCB-Video、JHUScene-50 和 ObjectNet-3D 三个大规模基准测试中取得了优异的表现,与目前现有技术相比表现优秀。
Mar, 2018
本研究提出一种名为 Cas6D 的级联框架,该框架对六自由度物体姿态进行少样本学习的估计,使用自监督预训练 ViT 积累鲁棒特征、用特征金字塔进一步精炼姿态和借助离散化姿态搜索范围和渐进式缩小姿态搜索范围的特性克服了 6DoF 姿态估计中的一些常见失败模式。该研究表明,相较于 OnePose ++ 和 Gen6D,在 32-shot 设定下,Cas6D 在 LINEMOD 和 GenMOP 数据集上的定位精度分别提高了 9.2%和 3.8%(Proj-5)。
Jun, 2023
本文介绍了首个针对分析不同因素对视觉定位影响的基准数据集,其中使用先进的本地化方法通过广泛实验评估了各种因素对于六度自由度(6DOF)相机姿态估计准确性的影响,并对其难度进行了总结,最终提出了未来研究的有益方向,包括序列定位方法和更好的本地特征。
Jul, 2017
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020
本文介绍了一个用于增强现有的 3D 感知和 6D 物体姿态数据集的新注解和获取方法,通过机器人前向运动学、外部红外跟踪器和改进的校准和注解过程,提出了一个多模态传感器装置,据此创建了高精度的 3D 数据,有效克服了现有数据集的限制,并为 3D 视觉研究提供了宝贵的资源。
Aug, 2023
本文提出了一种实时的、无需面部检测或关键点定位的六自由度、三维人脸姿态估计方法,使用了 Faster R-CNN 模型将六自由度位姿回归给图像中所有的脸部,并展示了该方法在 AFLW2000-3D 和 BIWI 数据集上的优越性能。
Dec, 2020
该论文提出了一个简单实时的 3D 多目标跟踪系统,使用 3D Kalman 滤波器和匈牙利算法进行状态估计和数据关联,并提出了新的 3D MOT 评估工具和新的评估指标,可在 KITTI 和 nuScenes 数据集上获得最先进的性能和最快的速度。
Jul, 2019