TriPlaneNet: EG3D 反演编码器
通过对 EG3D 的三平面空间的探索和演示,本研究提供了一个集成框架,用于实现高质量的基于参考的三维感知图像编辑,并通过创新的流程在三维感知图像编辑方面呈现出独特的视角。
Apr, 2024
该论文提出了一种快速、高质量的单张图像推断和呈现真实感三维重建的方法,使用基于视觉 Transformer 的三面板编码器,利用合成数据进行训练,通过卷积渲染技术对神经辐射场的规范三面板进行重建,可以在具有 3D 感知图像生成器的其他类别中应用。
May, 2023
我们提出了一种新颖的无条件视频生成模型,旨在解决长期的空间和时间依赖关系。通过使用混合的显式隐式三平面表示法和单一潜变量模型整个视频序列,我们的方法捕捉这些依赖关系。通过从主要潜变量推导出的中间三平面表示,合成单个视频帧。这种新颖策略通过 FLOPs 测量将计算复杂性降低了 2 倍。因此,我们的方法方便了高效的时间连贯视频生成。此外,与自回归方法相比,我们的联合帧建模方法减少了视觉伪影的生成。通过在基于生成对抗网络(GAN)的生成器架构中集成基于光流的模块,我们进一步增强了模型的能力,从而弥补了较小生成器大小所施加的约束。因此,我们的模型能够以 256x256 像素分辨率合成超过 5 秒 30 帧的高保真视频片段。通过定性和定量评估,我们在包含合成和真实视频片段的三个不同数据集上对我们方法的有效性和多功能性进行了验证。
Jan, 2024
当前针对人头的 3D GAN 反演方法通常只使用一个正面图像来重建整个 3D 头部模型,从而忽略了多视角数据或动态视频时的有意义信息。本研究基于现有先进的 3D GAN 反演技术,允许一致且同时地反演同一主体的多个视角。我们采用多潜变量扩展来处理动态人脸视频中的不一致性,从而从序列中重新合成一致的 3D 表示。由于我们的方法使用了有关目标主体的额外信息,我们观察到在几何精度和图像质量方面显著提高,尤其是在宽视角下的渲染。此外,我们展示了反演 3D 渲染的可编辑性,这使它们与基于 NeRF 的场景重建有所区别。
Dec, 2023
提出了一种新颖的框架,增量 3D GAN 逆转,通过增加逆转质量随帧数增加来提高数字头像重建性能,引入了一个带有两个关键修改的唯一可动画的 3D GAN 先验,以及一种基于 UV 参数化对纹理特征空间进行分类的创新神经纹理编码器。
Dec, 2023
本研究提出了一种通用的 3D GAN 反演方法,可以同时计算相机视角和潜变量代码,从而实现多视角一致的语义图像编辑。其关键在于利用预训练的估算器用于更好的初始化,并利用从 NeRF 参数计算的像素深度来更好地重构给定的图像。
Oct, 2022
提出了一种高保真的三维对抗生成网络,可以在保留输入图像的特定细节的同时合成逼真的新视图。该方法通过伪多视图估计和能见度分析建立,有效解决了三维反演中的几何纹理平衡问题,并成功实现了单张图像的高保真三维重建和新视图合成。并且本方法亦适用于图像属性编辑和 3D 纹理修改,因此有望被广泛应用于人工智能生成的三维内容领域。
Nov, 2022
通过前向推理,我们介绍了一种从单张图像高效生成三维模型的新方法,利用基于 Transformer 的网络,即点解码器和三面解码器,通过混合的 Triplane-Gaussian 中间表示重建三维物体,从而在渲染速度和渲染质量上实现了平衡,并比之前的技术在质量和运行时间方面取得了更好的效果。
Dec, 2023
从多样且非结构化的 Imagenet 数据集中,我们提出了一种从二维图像中重建三维几何模型的方法,使用高效的三平面表示法学习三维模型,并基于 StyleGAN2 的生成器架构对高度多样化的数据集进行调整,通过多视点辨别防止模式崩溃并提升训练稳定性。
Jan, 2024
本文利用可微分渲染器提取并分离生成模型中的 3D 知识,将生成对抗网络作为多视图数据生成器,使用现成的可微分渲染器训练逆向图形网络,并将训练好的逆向图形网络作为教师,将 GAN 的潜在向量分离为可解释的 3D 属性。我们的方法在现有数据集上对最先进的逆向图形网络进行定量和用户研究,并显示分离的 GAN 作为可控的 3D “神经渲染器”,补充传统的图形渲染器。
Oct, 2020