高效几何感知的三维生成对抗网络
提出了一种基于多视角一致性生成对抗网络(MVCGAN)的高质量 3D 感知图像综合方法,采用几何约束技术,利用深度和相机变换矩阵等信息实现多视角联合优化,同时采用两阶段训练策略和混合训练技术提高模型的生成图像质量,实验结果表明,本方法达到了最先进的性能水平。
Apr, 2022
本研究提出了一种扩展神经体素渲染至高分辨率 2D 图像的技术,使得生成对抗网络(GAN)能够以前所未有的细节分辨率合成高分辨率的三维几何物体,并且在维持图像质量的同时保持严格的视角一致性,从而树立了无监督学习 3D GAN 中的三维形状的新标准。
Jan, 2024
本文探讨了生成对抗网络 (GANs),将神经隐式表示与时间感知区别器相结合,发展了一种 GAN 框架,仅用单目视频合成了 3D 视频,能够学习可分解的 3D 结构和运动的丰富嵌入,实现了新的时空渲染视觉效果,同时也能产生与现有 3D 或视频 GANs 相媲美的图像质量。
Jun, 2022
提出了一种新的基于图像的神经隐式场方法,该方法利用基于 GAN 生成的多视图图像的 2D 监督,并通过不确定性模块来提高重构性能,从而实现了泛化物体的单视角 3D 重构。
Jul, 2022
本文介绍了一种从自然图像中学习生成 3D 形状的生成模型的全面无监督方法,其中利用 GAN 等深度学习技术实现,从而生成出真实的三维图像,实现了从二维图像向三维图像的转换。
Oct, 2019
本文提出了一种新的 3D-aware GAN,通过在最近的生成辐射流多面体(GRAM)方法定义的一组 2D 辐射流多面体上应用 2D 卷积并应用专用的损失函数进行高效 GAN 训练,从而避免了 prohibitively-expensive 的计算成本,并能够以体积渲染的严格 3D 一致性生成高分辨率图像(高达 1024X1024)。与现有方法相比,在 FFHQ 和 AFHQv2 数据集上的实验表明,我们的方法能够产生高质量的 3D-consistent 结果,明显优于现有的方法。
Jun, 2022
通过 projective generative adversarial network(PrGAN)模型,我们可以在无监督学习的情况下,从提供的二维视图中推断出三维形状的概率分布,包括形状、视角和新的视图。
Jun, 2019
使用周期性激活函数和体积渲染的神经表示,提出了一种新的生成模型,命名为周期性隐式生成对抗网络,用于高质量的 3D 感知图像合成,其能够表示多视角一致的 3D 场景,并在多个真实和合成数据集上获得了最先进的结果。
Dec, 2020
利用弱监督学习的多投影生成对抗网络方法生成特定类别的三维形状和进行高维分布的学习,同时不需要完整的三维形状信息,只需要二维边缘图和多视角的二维投影信息。
Jun, 2019
该研究探索了使用生成对抗网络在三维空间中进行图像合成的可能性,并提出了一种无监督的方法,可从原始图像中解开简单场景的隐含三维因素。与纯二维基线相比,该方法允许合成与视角或物体姿势变化一致的场景,可用于实现 3D 可控图像合成,生成具有可解释性的表示形式。
Dec, 2019