从2D样本中学习神经网络3D纹理空间
本文提出一种基于神经网络参数化的连续3D函数的纹理表示方法Texture Fields,可以用于高频纹理重建和与现代深度学习技术的自然融合,并在条件纹理重建和纹理生成模型学习方面表现出色。
May, 2019
本文提出使用不同iable rendering技术生成三角网格和相关高分辨率纹理贴图的框架,以单视角自然图像为2D监督,并将网格和纹理编码为2D表示,以便使用2D卷积GAN进行建模,并在Pascal3D + Cars和CUB上展示了方法的有效性及其评估方法。
Jun, 2020
本文提出了一种新颖的纹理合成框架,可以根据2D示例图像生成无限高质量的3D纹理,通过训练深度神经网络模型进行纹理生成,其中采用了结合样式迁移和生成对抗网络思想的新型损失函数,将分析网络深度特征的Gram矩阵与合成网络匹配,同时还提出了两种架构概念和外推策略以提高泛化性能,并通过定量和定性评估以及用户研究证实了其胜于先前最先进模型的性能。
Jun, 2020
本研究提出了一种自编码器体系结构,可以用于多纹理合成。该方法依赖于同时考虑二阶神经统计和自适应周期性内容的紧凑编码器和生成器,将图像嵌入一个紧凑和几何一致的潜空间,在这个空间内实现纹理表示和其空间组织的解耦。实验结果表明,该模型在视觉质量和各种纹理相关指标方面优于最先进的前馈方法。
Feb, 2023
Mesh2Tex使用一种混合网格神经场纹理表示法,从未相关的三维物体几何和照片逼真的RGB图像的集合中学习出真实的物体纹理流形,以生成适用于下游应用和3D渲染的纹理对象,并可以在具有挑战性的真实世界场景下有效地生成逼真的物体纹理。
Apr, 2023
我们介绍了一种在3D形状表面上直接操作的基于内在隐性扩散模型的框架,旨在合成高质量的纹理。通过对网格顶点上的离散矢量场编码纹理的隐式表示和学习在表面上的学习隐空间中去噪扩散过程的隐性扩散模型,我们的方法具有两个贡献。我们考虑了一种单一纹理网格范式,其中我们的模型被训练为在网格上生成给定纹理的变化。我们展示了合成的纹理与现有的单一纹理网格生成模型相比,具有较高的保真度。我们的模型还可以用于用户控制的编辑任务,例如修复缺失和标签引导的生成。我们提出的框架具有在等价变换下的等变性,这部分有助于我们方法的有效性,使我们的模型能够在局部相似区域之间无缝复现细节,并打开了生成纹理迁移的可能性。
Dec, 2023
从文本提示生成任意大小的纹理图像的新方法,通过精调扩散模型实现单一GPU上任意分辨率的输出纹理图像,并展示了生成纹理在3D渲染和纹理转换中的两个应用。
May, 2024
基于文本到图像模型,研究生成具有全局一致性和高分辨率 UV 纹理的 Meta 3D TextureGen 方法,实现了高质量、高效率的任意复杂度三维纹理生成。
Jul, 2024