从 2D GAN 数据中渐进式学习 3D 重建网络
本文提出了一种新颖的 3D-RecGAN 方法,使用生成对抗网络从单个任意深度视角重建给定对象的完整三维结构,在高维体素空间中通过结合自动编码器和条件生成对抗网络框架的生成能力恢复物体的准确和细粒度的三维结构。广泛的实验表明,该方法在单视角 3D 物体重建方面明显优于现有技术,且能够重建未被见过的物体类型。
Aug, 2017
提出了一种新的基于图像的神经隐式场方法,该方法利用基于 GAN 生成的多视图图像的 2D 监督,并通过不确定性模块来提高重构性能,从而实现了泛化物体的单视角 3D 重构。
Jul, 2022
通过 3D-RecGAN ++,使用生成对抗网络从单个任意深度视图重建给定对象的完整三维结构,诸如多视图的对象或类标签,仅使用深度视图的体素网格表示作为输入,充分利用了自动编码器和条件生成式对抗网络框架的生成能力,在高维体素空间中推断对象的准确和细粒度的三维结构,并在合成和真实数据集上得到了验证。
Feb, 2018
本研究提出了一种新方法,用于通过生成式对抗网络(GAN)训练理解物体的详细三维形状以及从二维图像中重建三维形状和形状完成。该方法使用梯度惩罚的 Wasserstein 距离作为训练目标,从而从联合对象形状分布中获得更好的生成效果,并在与现有基线比较中取得了明显的数量级改进。
Jul, 2017
从多样且非结构化的 Imagenet 数据集中,我们提出了一种从二维图像中重建三维几何模型的方法,使用高效的三平面表示法学习三维模型,并基于 StyleGAN2 的生成器架构对高度多样化的数据集进行调整,通过多视点辨别防止模式崩溃并提升训练稳定性。
Jan, 2024
通过 projective generative adversarial network(PrGAN)模型,我们可以在无监督学习的情况下,从提供的二维视图中推断出三维形状的概率分布,包括形状、视角和新的视图。
Jun, 2019
提出了一种高保真的三维对抗生成网络,可以在保留输入图像的特定细节的同时合成逼真的新视图。该方法通过伪多视图估计和能见度分析建立,有效解决了三维反演中的几何纹理平衡问题,并成功实现了单张图像的高保真三维重建和新视图合成。并且本方法亦适用于图像属性编辑和 3D 纹理修改,因此有望被广泛应用于人工智能生成的三维内容领域。
Nov, 2022
使用单视角 2D 照片集合进行高质量多视角一致的图片和 3D 形状的非监督生成一直是一个难题,本文提出了一种混合显式 - 隐式网络架构,用于提高 3D GANs 的计算效率和图像质量,实现了高分辨率实时多视角一致的图像合成,同时产生高质量的 3D 几何体。
Dec, 2021
通过利用预先训练的 3D GAN 生成先验来改善重建结果,本文提出了一种名为 MeshInversion 的新型框架,它在单视角观察下通过搜索最相似目标网格的 3D GAN 的潜在空间来实现重建,从而在 3D 空间中直接应用正则化,提供了未观测的网格部位的关键指导,实现了出色的 3D 重建。
Jul, 2022
本文提出了一种基于 3D GAN 的 3D 生成器,采用了不同于以往的数据假设、深度框架和相机模型,在多样化数据集(如 ImageNet)上取得了优于现有技术的纹理和几何质量的结果。
Mar, 2023