StylePrompter:所有风格需要的只是注意力
本文介绍了一种基于 Transformer 的图像逆转和编辑模型,用于预先训练过的 StyleGAN,通过 CNN 编码器在多个尺度上提供图像特征作为键和值,并将样式代码视为查询,以在生成器中反转输入。无论是在逆转还是编辑任务中,该方法在 StyleGAN 上都取得了更好的性能表现。
Mar, 2022
本文探究了用生成式对抗网络 GANs 的最新进展,发现最近提出的 style-generators 可以被用作通用图像先验,其具有线性特性和可逆性,且在图像增强任务方面优于其他 GANs 和 Deep Image Prior。
Jun, 2019
本研究提供了一种基于编码器和超网络的方法以实现高重构质量、可编辑性和快速推理的 GAN 反演,并在两个具有挑战性的数据集上进行了广泛的实验以证明其优越性。
Dec, 2021
本文提出了 HyperStyle 方法,它利用 hypernetwork 对 StyleGAN 网络进行加权调整,从而可以将一幅图像忠实地表达为 latent space 中可调整的部分,使得该方法可以用于实现像素到像素的图像编辑工作,并且在编辑出不同于训练过的图像时,也能取得较好的效果。
Nov, 2021
本文提出了一种新型的 GAN 反演架构,称为特征 - 风格编码器,其风格编码器对于操纵获得的潜在代码至关重要,而特征编码器对于优化图像重建至关重要,该模型能够比现有方法更准确地反演实际图像,获得更好的感知质量和更低的重建误差。并且,我们还演示了该编码器在视频反演和编辑方面特别适用。通过对多个基于风格的生成器进行广泛的实验,我们的方法显著优于竞争方法,达到了基于风格的 GAN 反演的最新成果。
Feb, 2022
本文研究 StyleGAN 的潜在空间,提出了两个设计编码器的原则,以平衡畸变 - 可操作性和畸变 - 知觉的权衡,从而为真实图片的编辑提供了更好的方法。
Feb, 2021
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
本研究探索了利用预训练的基于样式生成器的 “样式空间” 控制本地翻译的可能性。提出了一种名为 “Style Intervention” 的轻量级优化算法,用于在高分辨率图像上进行面部属性编辑,证明了其在视觉和定量结果上的有效性,表现优于现有的基准。
Nov, 2020