从单个视角深度学习的全 3D 物体补全
通过 3D-RecGAN ++,使用生成对抗网络从单个任意深度视图重建给定对象的完整三维结构,诸如多视图的对象或类标签,仅使用深度视图的体素网格表示作为输入,充分利用了自动编码器和条件生成式对抗网络框架的生成能力,在高维体素空间中推断对象的准确和细粒度的三维结构,并在合成和真实数据集上得到了验证。
Feb, 2018
本文提出了一种新颖的 3D-RecGAN 方法,使用生成对抗网络从单个任意深度视角重建给定对象的完整三维结构,在高维体素空间中通过结合自动编码器和条件生成对抗网络框架的生成能力恢复物体的准确和细粒度的三维结构。广泛的实验表明,该方法在单视角 3D 物体重建方面明显优于现有技术,且能够重建未被见过的物体类型。
Aug, 2017
本文提出了一种基于自编码器的无监督深度卷积神经网络学习框架,通过训练不需要预训练或注释的神经网络,为单视图深度预测提供了一种新的方法。
Mar, 2016
提出了一种基于单个编码器和三个独立生成器的新型模型,用于从单个深度图像中进行三维语义完形填空,旨在实现对原始场景和完整场景的不同几何和语义表示的重构,在模型内引入连接它们之间的路径,在相应的网络层级上连接特征,以实现信息传输,并构建了一个新的训练数据集,包括遮挡和真实噪声,在标准基准上演示了我们的方法对语义三维场景和三维物体完成的好处。
Sep, 2019
本文提出了一种卷积网络,可以仅仅基于单张图像预测出物体的 RGB 图和深度图,并将多幅深度图融合成完整点云后可转换成表面网格来对任意视野下的三维物体进行识别。网络通过合成的三维车和椅子模型进行训练,在有杂乱背景并搭配真实车辆图像的情况下,仍可生成合理的推测。
Nov, 2015
本文提出了一种新的深度几何学习方法,通过构建保留欧几里得空间结构的三维潜在空间,可以提高网络在形状识别和重建上的性能,并且在 ShapeNet 和真实世界数据集上表现优于目前最先进的方法,并且能够自然而然地扩展到多视角重建。
Jun, 2020
本文提出了一个自监督学习的方法,通过深度引导的调整过程,利用变换自编码器的网络结构,在只有 2D 图像和相关视角变换的情况下精确合成高质量的 3D 对象或场景的新视角,并实现了细粒度和精密的六自由度视角控制。通过在合成和真实场景以及精细和固定视角设置下的彻底评估,证明了该方法的广泛适用性。
Jan, 2019
本文提出一种基于深度学习架构的数据驱动方法来恢复三维形状的缺失部分,该方法包含全局结构推断网络和局部几何细化网络,并在六个实体类别上进行了定性和定量评估,表明优于现有的形状完成工作。
Sep, 2017
本文提出了三种针对三维重建少样本的方法,并将类先验有效地整合到模型中,以便考虑类内变异性和强制实施隐式组合结构,从而在少样本场景中显著优于现有基线模型,实验在 ShapeNet 数据集上。
Apr, 2020
通过提出一种新的全卷积体积自动编码器,有效实现了从嘈杂的 3D 数据中提取体积表示,并在噪声去除和形状完成等多个任务上超越了以往的技术,同时在分类和形状插值方面也得到了不错的结果。
Apr, 2016