从单一视角生成多角度图像
提出了一种基于多视角一致性生成对抗网络(MVCGAN)的高质量 3D 感知图像综合方法,采用几何约束技术,利用深度和相机变换矩阵等信息实现多视角联合优化,同时采用两阶段训练策略和混合训练技术提高模型的生成图像质量,实验结果表明,本方法达到了最先进的性能水平。
Apr, 2022
提出了一种基于无监督多视图生成模型的条件变体,可在高维空间中生成各种物体的逼真样本,相比于其他条件生成方法,我们不会对变差因素做任何假设,不需要视图的监督。
Nov, 2017
GarmentGAN 是一种使用生成对抗方法进行图像化服装转移的算法,可以根据用户提供的两张图像,合成新的虚拟试衣图片,通过在训练中加入分割地图和人体关键点信息,提升了图像的真实性和效果。
Mar, 2020
提出了一种高保真的三维对抗生成网络,可以在保留输入图像的特定细节的同时合成逼真的新视图。该方法通过伪多视图估计和能见度分析建立,有效解决了三维反演中的几何纹理平衡问题,并成功实现了单张图像的高保真三维重建和新视图合成。并且本方法亦适用于图像属性编辑和 3D 纹理修改,因此有望被广泛应用于人工智能生成的三维内容领域。
Nov, 2022
本文提出了一种基于生成对抗网络(GAN)和去噪自动编码器(DAE)的视图插补方法,该方法能够有效地解决多视图数据分析中的缺失视图问题,并可用于生命科学领域的遗传研究。
Aug, 2017
本文旨在通过设计稳健的单流视频生成架构,并扩展最先进的 Wasserstein GAN 框架,从而改进视频生成对抗网络(GANs)的性能,成功地将其应用于视频着色、视频修复和未来预测等领域,实验结果表明,我们的模型在多个具有挑战性的数据集上表现优异。
Nov, 2017
当前针对人头的 3D GAN 反演方法通常只使用一个正面图像来重建整个 3D 头部模型,从而忽略了多视角数据或动态视频时的有意义信息。本研究基于现有先进的 3D GAN 反演技术,允许一致且同时地反演同一主体的多个视角。我们采用多潜变量扩展来处理动态人脸视频中的不一致性,从而从序列中重新合成一致的 3D 表示。由于我们的方法使用了有关目标主体的额外信息,我们观察到在几何精度和图像质量方面显著提高,尤其是在宽视角下的渲染。此外,我们展示了反演 3D 渲染的可编辑性,这使它们与基于 NeRF 的场景重建有所区别。
Dec, 2023