Understanding how an animal can deform and articulate is essential for a
realistic modification of its 3D model. In this paper, we show that such
information can be learned from user-clicked 2D images and a template 3D model
of the target animal. We present a volumetric deformation fra
本文提出一种学习框架,可以从单个图像中恢复物体的 3D 形状、相机、和纹理,使用一个可变形的 3D 网格模型来表示形状,在不依赖于地面真值 3D 或多视图监督的情况下,利用注释的图像集进行训练并学习 3D 预测机制与可变形模型。作者还展示了可以轻松将语义关键点与预测的形状相关联,并在 CUB 和 PASCAL3D 数据集上展示了我们的方法的定性和定量结果。