TextureGAN:使用纹理贴片控制深度图像合成
本文提出了一种基于深度对抗图像合成框架,结合草图轮廓和稀疏颜色笔画生成逼真的汽车、卧室或人脸。我们展示了一个基于草图的图像合成系统,允许用户在草图上涂鸦以指示所需对象的首选颜色。该网络是前向的,可以实时看到用户编辑的效果。与最近关于草图到图像合成的研究进行了比较,表明我们的方法可以生成更逼真、更多样和更可控的输出,并且对于灰度图像的用户引导上色也很有效。
Dec, 2016
在输入多张图像且需要大规模输出的纹理合成问题中,本文基于生成对抗网络提出两个扩展解决方案,一是结合较小分辨率的 GAN 训练产生边界无明显痕迹的大规模纹理地图,二是提供用户界面进行艺术控制,我们的定量和定性结果展示了合成高分辨率地图的成功案例。
Apr, 2019
本文介绍了一种使用基于生成对抗网络(GANs)的逐片段范例生成无限分辨率纹理图像的新方法。该方法通过在一个纹理图像上训练 GAN 模型,生成相对较小但局部相关且可无缝拼接成更大图像的纹理片段,并具有可扩展性、一致性和多样性。实验结果表明,相比于现有方法,该方法具有更好的可扩展性和视觉一致性。
Sep, 2023
我们提出了一种新颖的方法,用于艺术图像中几何抽象和纹理的交互控制。通过空间分解输入图像的形状和高频细节的参数化表示,实现对颜色和纹理的独立控制。所提出的形状和纹理的解耦使得可以进行多种风格编辑,包括形状、笔触和绘画属性等的全局和局部互动调整。此外,我们还展示了在参数空间中使用参考图像和文本提示进行基于优化的纹理风格迁移,以及用于实时纹理分解的单一和任意风格参数预测网络的训练。
Jul, 2023
该论文提出了一种新颖的可控文本到图像生成对抗网络 (ControlGAN),它能够有效地合成高质量图像并根据自然语言描述控制图像的生成。该方法采用词级空间和通道注意力机制对不同的视觉属性进行分离,并通过词级鉴别器提供细粒度的监督反馈,使生成器能够对特定的视觉属性进行操作。通过大量的实验证明,我们的方法优于现有的最先进技术,并能够通过自然语言描述有效地操作合成图像。
Sep, 2019
提出了一种名为 TexControl 的基于草图的时尚生成框架,采用两阶段流程从草图输入生成时尚图像,通过 ControlNet 生成时尚图像并保持图像轮廓稳定,然后利用图像到图像的方法优化生成图像的细节纹理,获得最终结果。评估结果表明,TexControl 可以生成具有高质量纹理的细粒度时尚图像。
May, 2024
本文介绍了一种基于生成对抗网络的新型纹理合成模型,即空间 GAN(SGAN),其通过将输入噪声分布空间从单一向量延展至整个空间张量,实现了高品质、高可扩展性和快速实时正向生成等特点,并能够将多个不同类别的源图像融合到复杂的纹理中。同时,本文还讨论了该方法的一些局限性,并将其与其他神经纹理生成技术进行了比较。
Nov, 2016
该论文提出一种利用场景描述和参考补丁合成图像的方法,并使用可微分检索模块实现端到端的培训,以学习更好的特征嵌入用于检索,并通过附加目标函数鼓励选择相互兼容的补丁。经过广泛的定量和定性实验表明,该方法可以生成逼真多样的图像,检索的补丁合理且相互兼容。
Jul, 2020