无限纹理:基于文本引导的高分辨率扩散纹理合成
本文介绍了一种通过草图、颜色和纹理生成深层次图像的方法。通过引入纹理控制来实现用户对输出纹理的控制,我们的生成网络可以学习到如何根据用户的纹理想法生成与之一致的对象,并且在实验中得到了验证。
Jun, 2017
本文介绍了一种使用基于生成对抗网络(GANs)的逐片段范例生成无限分辨率纹理图像的新方法。该方法通过在一个纹理图像上训练GAN模型,生成相对较小但局部相关且可无缝拼接成更大图像的纹理片段,并具有可扩展性、一致性和多样性。实验结果表明,相比于现有方法,该方法具有更好的可扩展性和视觉一致性。
Sep, 2023
介绍一种新颖的方法用于合成给定 3D 对象的纹理,通过预训练的文本到图像扩散模型,提出了一种同步多视点扩散方法,早期生成的纹理内容达成一致,确保纹理的一致性。
Nov, 2023
我们介绍了一种在3D形状表面上直接操作的基于内在隐性扩散模型的框架,旨在合成高质量的纹理。通过对网格顶点上的离散矢量场编码纹理的隐式表示和学习在表面上的学习隐空间中去噪扩散过程的隐性扩散模型,我们的方法具有两个贡献。我们考虑了一种单一纹理网格范式,其中我们的模型被训练为在网格上生成给定纹理的变化。我们展示了合成的纹理与现有的单一纹理网格生成模型相比,具有较高的保真度。我们的模型还可以用于用户控制的编辑任务,例如修复缺失和标签引导的生成。我们提出的框架具有在等价变换下的等变性,这部分有助于我们方法的有效性,使我们的模型能够在局部相似区域之间无缝复现细节,并打开了生成纹理迁移的可能性。
Dec, 2023
通过神经重参数纹理优化,我们提出了一种基于文本的高保真度纹理映射合成方法Paint-it。通过优化合成文本描述中的纹理映射,利用分数蒸馏采样(SDS),并使用深度卷积物理渲染(DC-PBR)重新参数化基于物理的渲染纹理映射,以获得杂质滤波和优化课程调度,并能够在短时间内生成出色质量的PBR纹理映射。
Dec, 2023
基于文本到图像模型,研究生成具有全局一致性和高分辨率 UV 纹理的 Meta 3D TextureGen 方法,实现了高质量、高效率的任意复杂度三维纹理生成。
Jul, 2024
本研究针对现有文本到图像生成模型在3D几何体纹理合成中的局限性进行了探讨,提出了一种新颖的文本到纹理合成框架。该框架通过预训练的扩散模型及局部注意力重加权机制,提高了局部细节并保持了跨视角一致性,从而在纹理一致性和视觉质量上显著优于现有最先进技术。研究成果具有高度适应性,无需额外训练或微调,适用于各种公开平台模型。
Sep, 2024
本文针对现有文本到纹理生成方法中的视角不一致和纹理与网格不对齐等问题,提出了一种强健的文本到纹理生成方法。该方法利用先进的2D扩散模型,结合对称视图合成策略和区域提示,显著提升了生成纹理的一致性和无缝性,实验证明其在性能上优于现有的最先进方法。
Sep, 2024