Fine-Tuning StyleGAN2 用于卡通人脸生成
通过在预训练的 StyleGAN2 模型上进行一系列的模型变换,我们提出了一种新的图像到图像 (I2I) 转换方法,并提出了一种反演方法,以在源领域和目标领域之间进行 I2I 翻译。定性和定量评估证明了该方法在图像质量、多样性和与输入和参考图像的语义相似性方面具有优越性能,与最先进的作品相比。
Oct, 2020
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文提出了一种名为 XGAN 的双对抗自编码器,可以无监督地捕捉共同的领域语义内容,同时在两个方向上学习域与域之间的图像转换,并通过语义一致性损失函数来实现语义保留,并以公开数据集 CartoonSet 为基准来证明该方法的有效性。
Nov, 2017
该研究提出了一个基于 GAN 的新框架,可以将肖像照片转换为动漫外观的高质量图像,同时保留源图像的整体结构,该框架采用了双分支鉴别器来学习具体领域分布和领域共享分布,有助于生成具有视觉吸引力的动漫图像。
Feb, 2021
DeepI2I 为一种新的基于深度学习和层级特征的图像翻译方法,采用转移学习技术和适配器网络解决了高分辨率瓶颈和对小数据集性能较差的问题,在三个数据集上的实验结果表明可以显著提高多类别图像翻译的性能。
Nov, 2020
该研究论文探讨图片到图片翻译的问题,以及如何在计算机视觉应用中如上色、修补和分割等方面应用无监督学习和生成对抗网络,并提出两种模型以解决 GAN 稳定性问题,并得出与文献讨论一致的问题假设。
Oct, 2023
本文旨在将有监督和无监督的图像翻译方法相结合,在像素到像素图像翻译领域取得了重大突破,提出了一种选择非常少的配对训练样本的方法,并在训练过程中同时使用这些配对样本和未配对样本,从而比 Random Selection 获得了更好的性能。
Sep, 2019
本文介绍了一种基于共享潜在空间假设和 Coupled GANs 的无监督的图像到图像翻译框架,并在多个挑战性的无监督图像翻译任务中取得了高质量的翻译结果,同时也应用于域自适应并实现了最先进的基准数据集性能。
Mar, 2017
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017