基于潜空间视角的 StyleGAN 倒推用于图像编辑
通过将 StyleGANs 的超球面先验 Z 与潜空间结合起来,我们提出了 F/Z + 空间,其中 F 空间用于重建图像而 Z + 空间支持高质量的编辑,通过在 Z + 空间中移动实现语义编辑而不损失图像质量。
Jul, 2023
本研究通过将 StyleGANs 的超球形先验 Z 和 Z + 集成到 GAn 反演方法中,实现了不牺牲图像质量的语义编辑,并用实验证明 Z + 能取代最常用的 W、W + 和 S 空间,同时保持重建质量,减少图像畸变。
May, 2023
通过 StyleGAN 反演技术,我们介绍了一种名为 StyleFeatureEditor 的新方法,可以在 w-latents 和 F-latents 两个潜变量空间中进行编辑,实现了对细节的精确重建和修改。与现有的编码方法相比,我们的模型在重建质量上表现优秀,并能够处理具有挑战性的领域外示例。
Jun, 2024
提出一种新颖的图像反转架构,该架构提取高速率的潜在特征,并包含流估计模块来对这些特征进行编辑。实验证明,该方法在图像输入的逼真度和编辑质量上都取得了显著的改善。
Dec, 2023
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
本文研究 StyleGAN 的潜在空间,提出了两个设计编码器的原则,以平衡畸变 - 可操作性和畸变 - 知觉的权衡,从而为真实图片的编辑提供了更好的方法。
Feb, 2021
本研究提供了一种基于编码器和超网络的方法以实现高重构质量、可编辑性和快速推理的 GAN 反演,并在两个具有挑战性的数据集上进行了广泛的实验以证明其优越性。
Dec, 2021
本文提出了 HyperStyle 方法,它利用 hypernetwork 对 StyleGAN 网络进行加权调整,从而可以将一幅图像忠实地表达为 latent space 中可调整的部分,使得该方法可以用于实现像素到像素的图像编辑工作,并且在编辑出不同于训练过的图像时,也能取得较好的效果。
Nov, 2021
该论文提出了潜在空间对齐反演范式,通过引入标准化样式空间和余弦距离等指标优化反演方法使得反演结果更符合期望分布,并在多个领域的实验中显示出优越性。
Sep, 2022