Recent advances in 3d human shape estimation build upon parametric
representations that model very well the shape of the naked body, but are not
appropriate to represent the clothing geometry. In this paper, we p
在本研究中,我们定义和研究了一个新的 Cloth2Body 问题,其目标是从 2D 服装图像生成 3D 人体网格。与现有的人体网格恢复问题不同,Cloth2Body 需要解决输入的局部观察和输出的高度多样性带来的新挑战。我们提出了一个端到端的框架,从 2D 服装图像准确估计参数化为姿势和形状的 3D 体网格,并通过实验结果证明该框架达到了最先进的性能,在对齐服装的同时能够有效恢复自然而多样化的 3D 人体网格。