本文提出一种学习框架,可以从单个图像中恢复物体的 3D 形状、相机、和纹理,使用一个可变形的 3D 网格模型来表示形状,在不依赖于地面真值 3D 或多视图监督的情况下,利用注释的图像集进行训练并学习 3D 预测机制与可变形模型。作者还展示了可以轻松将语义关键点与预测的形状相关联,并在 CUB 和 PASCAL3D 数据集上展示了我们的方法的定性和定量结果。
使用深度神经网络从单一图像中重建 3D 点云坐标,设计了面对真实世界几何转换不变性和地面真实性模糊的问题的新型方法,包括条件形状采样器,能够预测多个可能的 3D 点云。在实验中表现优异,不仅在单图像 based 3D 重建基准测试中胜过现有技术,也在形状补全方面表现出强大性能,有望在多个可能性预测方面表现出色。
本文介绍了一种基于像素输入和 3D 刚性类别的输出的自动化流程,通过从现有物体检测数据集中学习可变形的 3D 模型并结合底层模块进行高频率形状细节恢复,实现了在单幅图像中获取真实场景下物体的三维表面重建,通过在最近引入的 PASCAL 3D + 数据集上的全面定量分析和消融研究展示了非常令人鼓舞的自动重建效果。