TextureGAN:使用纹理贴片控制深度图像合成
本文提出一种利用深度学习的方式,通过在训练阶段来移动计算负担,使用单个纹理样本训练紧凑的前馈卷积网络,可以生成任意大小的同一纹理的多个样本,并将艺术风格从给定图像传输到任何其他图像中,生成的网络轻巧,并且可以比Gatys等人的方法快数百倍。
Mar, 2016
本文提出了Markovian Generative Adversarial Networks (MGANs)的方法,用于训练具有高效纹理合成功能的生成神经网络。通过对Markovian patch的特征统计进行捕捉,可以直接生成具有任意尺寸的输出,从而使合成图像的速度显著提高,并在纹理合成、样式转移和视频样式化等领域得到应用。
Apr, 2016
本文介绍了一种基于生成对抗网络的新型纹理合成模型,即空间 GAN(SGAN),其通过将输入噪声分布空间从单一向量延展至整个空间张量,实现了高品质、高可扩展性和快速实时正向生成等特点,并能够将多个不同类别的源图像融合到复杂的纹理中。同时,本文还讨论了该方法的一些局限性,并将其与其他神经纹理生成技术进行了比较。
Nov, 2016
本文提出了一种基于深度生成式前馈网络实现的纹理综合方法,具有在一个网络内高效综合不同纹理并进行有意义插值的能力,并通过多项实验证明了提出的模型和技术的有效性和应用前缀。
Mar, 2017
本文提出了一种基于生成对抗网络(GAN)的纹理合成新方法,称为周期空间GAN(PSGAN),该方法可以从复杂大型图像数据集中学习多种纹理,生成的样本在结构化噪声空间内可以平滑插值,生成新样本,并可以准确学习周期性纹理,能够灵活处理不同的纹理和图像数据源,可扩展性强,能够生成任意大小的输出图像。
May, 2017
本文提出了一种利用神经网络实现纹理插值的方法,通过对重建任务和生成任务同时训练网络,将样例纹理投影到潜空间中进行线性插值,并重投影到图像域中,从而实现直观的控制和逼真的效果;研究显示该方法优于其他方法,并给出了纹理笔刷、纹理溶解和动物杂交等多个应用。
Jan, 2019
在输入多张图像且需要大规模输出的纹理合成问题中,本文基于生成对抗网络提出两个扩展解决方案,一是结合较小分辨率的GAN训练产生边界无明显痕迹的大规模纹理地图,二是提供用户界面进行艺术控制,我们的定量和定性结果展示了合成高分辨率地图的成功案例。
Apr, 2019
本文提出了一种新颖的纹理合成框架,可以根据2D示例图像生成无限高质量的3D纹理,通过训练深度神经网络模型进行纹理生成,其中采用了结合样式迁移和生成对抗网络思想的新型损失函数,将分析网络深度特征的Gram矩阵与合成网络匹配,同时还提出了两种架构概念和外推策略以提高泛化性能,并通过定量和定性评估以及用户研究证实了其胜于先前最先进模型的性能。
Jun, 2020
本文介绍了一种使用基于生成对抗网络(GANs)的逐片段范例生成无限分辨率纹理图像的新方法。该方法通过在一个纹理图像上训练GAN模型,生成相对较小但局部相关且可无缝拼接成更大图像的纹理片段,并具有可扩展性、一致性和多样性。实验结果表明,相比于现有方法,该方法具有更好的可扩展性和视觉一致性。
Sep, 2023