Mar, 2019
从单个 RGB 相机学习重建穿着衣服的人
Learning to Reconstruct People in Clothing from a Single RGB Camera
TL;DR本文提出了一种基于学习的模型,利用少量单目视频帧(1-8帧)从移动的人中推断出其个性化的3D形状,可在不到10秒内达到5mm的重建精度。该模型学习预测一个统计体型模型的参数和实例化偏移量,同时加入衣服和头发的形状,具有快速和准确的预测,这得益于其对T-pose空间的预测和从上往下和从下往上两个视图预测的结合。该模型仅基于合成的3D数据进行学习,可将可变数量的帧作为输入,即使仅有一张图像,也能以6mm的精度重建形状。3个不同数据集的结果表明了本方法的有效性和准确性。