Aug, 2023

EgoPoser:大场景下鲁棒实时自我身体姿势估计

TL;DR本文提出了一种名为 EgoPoser 的方法,通过重新思考基于头戴式设备的自我姿态估计的输入表示以及引入一种新的运动分解方法,在不依赖全局位置的情况下预测全身姿态,仅通过头戴式设备的视野内的间歇性手部位置和方向跟踪鲁棒地建模身体姿势,并且针对不同用户的各种身体尺寸进行了泛化。实验证明,EgoPoser 在质量和数量上都胜过了现有的方法,并且推断速度高达每秒超过 600 帧。EgoPoser 为未来的工作奠定了坚实的基础,不再需要依赖外部捕捉并能在大场景环境中扩展全身姿势估计。