从视频获取时间上连贯的 3D 人体姿态和形状的非静态特征研究
提出了一种 Pose and Mesh Co-Evolution 网络(PMCE),通过将任务分解为视频中基于 3D 人体姿势估计和来自估计的 3D 姿势和时间图像特征的网格顶点回归,解决了从视频中准确、平滑地恢复 3D 人体运动的问题。实验证明,该方法在三个基准数据集(3DPW、Human3.6M 和 MPI-INF-3DHP)上在逐帧准确度和时间一致性方面优于先前的最先进方法。
Aug, 2023
提出了一种从单眼视频中恢复时间一致的 3D 人体姿势、形状和动作的方法,通过使用具有身体感知特征表示和独立的逐帧姿势和相机初始化,结合自相似性和自注意力等技术进行时空特征聚合,该方法提供了增强的时空上下文,可在各种复杂场景下得到更准确的姿势估计和形状重建。
Nov, 2023
该研究论文提出了一种基于深度学习和递归神经网络的方法,采用含有 3D 注释的合成单眼视频来恢复完整的 3D 人体姿势,并在定量和定性分析中证明了该方法的有效性。
Jun, 2019
通过观察人类运动的视觉序列,我们可以轻松猜测人在过去和未来的 3D 运动。我们提出了一个可以学习人类 3D 动力学表示的框架,通过简单而有效的图像特征时间编码。在测试过程中,学习到的时空表示能够预测具有平稳性的 3D 网格。我们的模型可以从单个图像中恢复当前的 3D 网格以及它未来和过去的 3D 运动,同时也可以通过半监督学习从带有 2D 姿态标注的自然视频中学习。我们通过对来自互联网海量未标记数据的模型训练,通过已有的 2D 姿态检测器得到伪基础真值 2D 姿态,证明了我们的模型可以自举学习并在三维动作预测任务中获得最新的性能。
Dec, 2018
通过提出一个 Temporal-Aware Refining Network (TAR),本文探索了对于精确的姿势和形状恢复而言的全局和局部图像特征的时间感知,实现了比现有方法更准确的结果。
Nov, 2023
本文提出了一种高效利用视频序列中连续帧运动信息来恢复人的三维姿态的方法,并通过回归边界框的时空体到中心帧的 3D 姿势来改进现有方法。同时,为了最大限度地发挥这种方法的潜力,本文阐明必须补偿连续帧中的运动,以使被测量者保持中心,从而能够有效地消除歧义并在 Human3.6m、HumanEva 和 KTH Multiview Football 3D 人体姿态估计基准测试中取得显著改进。
Nov, 2015
本文介绍了一种从单目视频中学习时态一致的 3D 服饰人物重建的新方法,该方法通过引入新的时间一致性损失函数和混合表示学习,显著提高了重建的准确性、完整性、质量和时间一致性。
Apr, 2021
本文提出了一种基于 SMPLify 方法的全自动方法,可以从多视角视频中估计三维人体运动和身体形状,并利用 CNN 方法和 DCT 时间先验方法来提高精度,并且在标准基准测试中的结果与最先进的方法相当,同时还提供了一个逼真的 3D 形状 Avatar。
Jul, 2017
该研究通过基于束调整的算法从单眼视频中恢复准确的 3D 人体姿势和网格,通过在整个序列上重建人体来提供额外的约束并解决歧义问题。同时,该研究提出了一个包含超过 3 百万帧来自 Kinetics 的 YouTube 视频数据集,能够提高 3D 运动估计的准确性,该算法具有实际意义。
May, 2019