TL;DR使用图卷积网络从多角度图像中预测一系列形状变形,以进一步提高 3D 网格表征的形状质量,从而获得高精确度、高可靠性且具有普适性的 3D 模型。
Abstract
We study the problem of shape generation in 3d mesh representation from a few
color images with known camera poses. While many previous works learn to
hallucinate the shape directly from priors, we resort to furt
本文提出一种学习框架,可以从单个图像中恢复物体的 3D 形状、相机、和纹理,使用一个可变形的 3D 网格模型来表示形状,在不依赖于地面真值 3D 或多视图监督的情况下,利用注释的图像集进行训练并学习 3D 预测机制与可变形模型。作者还展示了可以轻松将语义关键点与预测的形状相关联,并在 CUB 和 PASCAL3D 数据集上展示了我们的方法的定性和定量结果。