单目动作捕捉的运动链空间
MotioNet 是一种用于从单眼视频中重建 3D 人体骨骼运动的深度神经网络,通过嵌入运动先验信息的深度神经网络将 2D 关节位置序列分解为对称骨骼和与全局根位置和足接触标签相关联的 3D 关节旋转序列,并在 3D 位置上应用正向运动学,使用敌对损失确保恢复的旋转速度处于自然关节旋转曲面上的关键优势使其能够直接从训练数据中学习到自然的关节旋转。
Jun, 2020
本研究利用物理引擎对姿态估计过程进行改进,从而使得我们可以利用现实世界的场景推导出物体的运动。我们的公式具有广泛的应用场景,并可处理自身接触和与场景几何之间的接触。我们的方法在 Human3.6M 和 AIST 基准测试中均获得了与现有基于物理的方法相竞争的结果,同时不需要重新训练。
May, 2022
提出了一种基于视觉运动链的精确和通用的机器人学习表示方法,该方法不需要手动调整,可以从机器人的模型和相机参数自动获取。通过使用单个目标进行最优点集匹配的训练,演示了 Visual Kinematics Transformer (VKT) 在多个环境中的卓越性能。
Jun, 2024
本文提出了一种采用运动学结构保持无监督学习的 3D 人体姿势估计框架,可以避免使用任何弱监督模型,并通过能量损失和运动学先验知识来训练模型,提高对新环境下的准确性和泛化能力。
Jun, 2020
提出一种新的重建方法,可以学习任何物品的动画运动学链,不需要事先了解物品的形状或基础结构,能够实现直接姿势操纵,并在各种复杂的关节对象类型上获得与最先进的三维表面重建方法相当的表现。
Apr, 2023
提出了一种基于生物力学的新型网络,利用两个输入视图直接输出三维运动学,通过合成数据集 ODAH 进行训练,实验证明该方法在多个数据集上超过了现有先进方法,为提升基于视频的人体动作捕捉提供了有前景的方向。
Feb, 2024
本文描述了一种基于无标记人体动作捕获的三维角色动画生成系统,采用视角多样的相机捕捉人体动作信息,并通过多种技术手段计算出骨骼变换状况,从而能够高效准确地实现三维骨骼重建与实时动画生成。
Dec, 2022
使用离线的 3D 姿势估计器,结合多视图线索和相机校准,自动化地获取 3D 人体姿态信息,包括时间同步和相机内外部校准,并通过将高维时间和校准空间划分为级联子空间以及引入定制算法来优化每个子空间,最终实现了易于使用、灵活且稳健的动作捕捉工具箱。
May, 2024
本文介绍了一种仅使用少量 Kinect 传感器进行无标记动作捕捉的高效且廉价方法,通过使用最近的图像分割技术和纯合成数据进行课程学习,实现了对身体各部位的准确本地化并且无需使用显式形状模型。同时,我们介绍了一个包含约 6 百万合成深度帧的新数据集,并超过了 Berkeley MHAD 数据集的最新结果。
May, 2016