头戴式传感器实时模拟化身
AvatarPoser 是第一个仅使用用户的头部和手部运动输入来预测世界坐标中全身姿势的基于学习的方法,具有较高的准确性和实时操作速度,并能够提供支持 Metaverse 应用的全面性化虚拟人物控制和表现的实用界面。
Jul, 2022
借助底部 VR 设备上安装的鱼眼相机捕捉的单目图像,使用编码器 - 解码器架构和新型多分支解码器,实现了针对自我中心 3D 人体姿势估计的解决方案,并提出了一种大规模的照片逼真的合成数据集 xR-EgoPose。这项工作在合成和实际数据集上与现有算法相比,准确率有大幅提高。
Nov, 2020
使用 HMD-Poser 方法实现了基于 VR 头戴式显示器的人体实时运动追踪,通过 HMD 和穿戴式 IMUs 之间的观察数据,提高了追踪精确度和易于佩戴性。通过实验表明,HMD-Poser 在精确度和实时性方面达到了最新的最佳效果,并通过实时的 Avatar-driving 应用程序证明了其性能。
Mar, 2024
本研究提出了一种利用强化学习、物理模拟器和稀疏传感器数据实时将人类运动重定向到具有不同骨架结构的角色的方法,并仅需要运用运动捕捉数据进行培训,同时探讨了该框架中的重要组件。
Jul, 2023
本文提出了一种名为 EgoPoser 的方法,通过重新思考基于头戴式设备的自我姿态估计的输入表示以及引入一种新的运动分解方法,在不依赖全局位置的情况下预测全身姿态,仅通过头戴式设备的视野内的间歇性手部位置和方向跟踪鲁棒地建模身体姿势,并且针对不同用户的各种身体尺寸进行了泛化。实验证明,EgoPoser 在质量和数量上都胜过了现有的方法,并且推断速度高达每秒超过 600 帧。EgoPoser 为未来的工作奠定了坚实的基础,不再需要依赖外部捕捉并能在大场景环境中扩展全身姿势估计。
Aug, 2023
本文提出了一种适用于严格视图需求的 VR 面部动画的实时管道,从运营商的序列中提取操作员特定的外观信息,并将其映射到目标表情和头部姿态上,同时讨论了性能。
Apr, 2023
本文提出一种新的解决方案,能够从从头戴虚拟现实设备上一部安装了鱼眼镜头的单目图像中,以自我中心的视角估算 3D 人体姿态。该方法使用了一种新的编码器 - 解码器结构,以及一个由两个分支组成的解码器,并通过构建一个大规模的合成数据集进行了实验,取得了显著的性能提升,并在 Human3.6M 基准数据集上取得了与现有最佳方法相当的效果。
Jul, 2019
虚拟现实 (VR) 具有比其他媒体更具身临其境感的社交互动的潜力。关键在于能够在佩戴 VR 头显的同时准确地模拟一个逼真的个人化化身。本研究揭示了头显摄像头镜头与模型相差较大是导致实时模型性能下降的主要原因,并提出了一个系统设计,将问题分解为两部分:1) 一个迭代优化模块,处理同一领域的输入;2) 一个通用的以化身为导向的图像转换模块,以当前表情和头部姿态的估计为条件。这两个模块相互加强,通过展示接近真实的示例,使图像样式转换更容易,并改善领域差异移除。我们的系统高效地产生高质量的结果,不再需要昂贵的离线注册来生成个性化标签。通过在市售头显上进行大量实验证实了我们方法的准确性和效率,并在直接回归方法和离线注册上展现了显著的改进。
Jan, 2024