图像增强和动画的样式生成器反演
本文研究 StyleGAN 的潜在空间,提出了两个设计编码器的原则,以平衡畸变 - 可操作性和畸变 - 知觉的权衡,从而为真实图片的编辑提供了更好的方法。
Feb, 2021
本文提出了 HyperStyle 方法,它利用 hypernetwork 对 StyleGAN 网络进行加权调整,从而可以将一幅图像忠实地表达为 latent space 中可调整的部分,使得该方法可以用于实现像素到像素的图像编辑工作,并且在编辑出不同于训练过的图像时,也能取得较好的效果。
Nov, 2021
通过先前训练好的 GAN 模型,将图像投影到潜在空间中以获取表示,我们可以在 MNIST 任务和 Omniglot 任务中成功地保留数字和字符的信息,这种方法可以应用于一次性学习。
Nov, 2016
通过使用预训练的 StyleGAN2 生成器构建先验分布,将学习的贝叶斯重建与生成模型相结合,实现了对图像修复和超分辨率重建问题的解决,与现有 GAN 图像重建方法相比表现更好。
Oct, 2021
本研究提供了一种基于编码器和超网络的方法以实现高重构质量、可编辑性和快速推理的 GAN 反演,并在两个具有挑战性的数据集上进行了广泛的实验以证明其优越性。
Dec, 2021
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
我们介绍了一种新颖的基于学习的倒置网络的运动生成器设计,通过将边缘图像编码为潜在变量,再通过指导初始帧的倒置编码器,使我们的方法能够生成平滑的未来潜在变量,从而实现了生成长时间和高分辨率视频的优势。
Aug, 2023
对给定图像进行 GAN 反演,将其转化为相应的潜在代码,尤其是针对具有解耦潜在空间的 StyleGAN,从而实现基于属性的图像操作。
Jul, 2023