野外自觉图像中的 3D 手势姿势估计
本研究报告介绍了我们在 Egocentric 3D Hand Pose Estimation 挑战赛上的工作。采用 AssemblyHands,我们使用基于 ViT 的骨干网络和简单回归器进行 3D 关键点预测,提供了强大的模型基线。我们提出了一种非模型方法,在后处理阶段合并多视图结果,以解决手 - 物体遮挡和自遮挡引起的性能下降问题。此外,我们利用测试时间增强和模型集成进一步改进了方法。我们还发现公共数据集和合理的预处理是有益的。我们的方法在测试数据集上实现了 12.21mm 的 MPJPE,并在 Egocentric 3D Hand Pose Estimation 挑战赛中获得第一名。
Oct, 2023
通过分析 3D 手 - 物体重建任务,我们展示了针对以自我为中心相机的畸变、采用高容量转换器来学习复杂的手 - 物体交互以及融合来自不同视角的预测等方法的有效性,并揭示了最新方法难以解决的快速手部运动、窄视角下的物体重建以及两只手和物体之间的近距离接触等具有挑战性的场景。我们的工作将丰富该领域的知识基础,并促进未来关于以自我为中心手 - 物体交互的研究。
Mar, 2024
AssemblyHands 是一份大规模基准数据集,包括 3D 手部姿态注释和同步的自中心和非中心图像,旨在研究具有挑战性的手 - 物体交互,可应用于 3D 手部姿态的估计和行动识别任务。
Apr, 2023
本文提出一种基于深度传感器的、具有先验的手势识别系统,使用包含自我场景的光辉合成模型来生成训练数据,并在真实环境下进行测试。结果表明,该方法在单目 RGB-D 图像中的手部检测和姿态估计方面均具有最先进的性能。
Nov, 2014
本文提出了一种自我监督的方法,利用未标注的多视角数据学习单图像三维姿态估计器,通过多视角一致性约束将观察到的二维姿态分离成基础的三维姿态和相机旋转,并且提出了新的、无偏的重建目标函数,跨视角和训练样本混合信息。该方法在两个基准数据集(Human3.6M 和 MPII-INF-3DHP)和野外 SkiPose 数据集上进行了评估。
Nov, 2020
通过探索 2D 手势姿态评估用于自我中心动作识别的领域,我们提出了两种新方法:EffHandNet 用于单手姿态估计和 EffHandEgoNet 用于自我视角,捕捉手部与物体之间的交互。同时,我们提出了一个从 2D 手部和物体姿态的坚固的动作识别架构。通过在 H2O 和 FPHA 数据集上的评估,我们的架构具有更快的推断时间,并且分别达到了 91.32% 和 94.43% 的精度,超越了包括基于 3D 的方法在内的最先进的技术。
Apr, 2024
本文提出了一种基于卷积神经网络的深度学习方法,用于单目 3D 人体姿态估计,具有高精度和更好的野外场景泛化能力,可以联合在具有 3D 标签和仅有 2D 标签的图像数据上进行训练,并在具有挑战性的野外数据上实现了最先进的准确性。
Apr, 2019
研究人员提出了一种基于立体视觉启发的神经网络技术和几何搜索方案来生成高质量的 3D 姿势地面真实数据,使不需要专业训练模式和辅助损失函数的神经网络模型在野外图像数据中实现良好的 3D 姿态估计结果。
Apr, 2019
本研究旨在探讨如何在自然环境中重建手 - 物互动。为此,我们提出了一个基于优化的过程,该过程不需要直接的 3D 监督,并利用所有可用的相关数据来提供 3D 重建的约束条件。我们的方法在 EPIC Kitchens 和 100 Days of Hands 数据集上跨越一系列对象类别产生了引人注目的重建效果,并在实验室的环境中与现有方法进行了比较。
Dec, 2020
使用两个连续应用的卷积神经网络(CNN)对手部进行定位并回归三维关节位置,进而实现在复杂环境中移动自视角 RGB-D 相机下的实时、稳健和准确的手部姿态估计。
Apr, 2017