TransEditor: 一种基于 Transformer 的双空间 GAN 用于高度可控的人脸编辑
本研究提出了一种新的控制图像属性的编辑方法,通过学习多种属性变换和应用内容损失和对抗损失来实现单一和多属性的编辑,并保留图像身份和真实感。此外,提出了客观评价标准以衡量模型性能,结果表明该模型在目标图像操作方面达到了最先进水平。
Feb, 2021
本研究提出通过 StyleGAN 生成器的潜在空间编辑面部属性,通过训练专门的潜在空间转换网络并在损失函数中添加显式的分离和身份保存项来控制和保护身份,并介绍了一个将面部编辑推广到视频的流程。在真实图像和视频方面表现出出色的性能。
Jun, 2021
我们提出了一种自编码器方法,通过重新组织 StyleGAN 的潜空间,使我们希望编辑的每个属性对应于新潜空间的一个轴,同时确保潜空间轴之间的相关性降到最低,以促进属性解缠,通过实验证明了我们的方法在编辑能力上超越了竞争方法,同时在保持图像身份一致性方面与原始图像具有高度的准确性,我们的自编码器结构简单明了,易于实现。
Dec, 2023
本研究探索了利用预训练的基于样式生成器的 “样式空间” 控制本地翻译的可能性。提出了一种名为 “Style Intervention” 的轻量级优化算法,用于在高分辨率图像上进行面部属性编辑,证明了其在视觉和定量结果上的有效性,表现优于现有的基准。
Nov, 2020
本文介绍了一种基于 Transformer 的图像逆转和编辑模型,用于预先训练过的 StyleGAN,通过 CNN 编码器在多个尺度上提供图像特征作为键和值,并将样式代码视为查询,以在生成器中反转输入。无论是在逆转还是编辑任务中,该方法在 StyleGAN 上都取得了更好的性能表现。
Mar, 2022
通过在中间的潜空间使用具有空间维度的调制替换 AdaIN,我们提出了 StyleMapGAN,它使得通过编码器的嵌入比现有基于优化方法更加准确,同时保持 GAN 的属性。实验结果表明,我们的方法在各种图像操作任务中显著优于最先进的模型。
Apr, 2021
本文研究 StyleGAN 的潜在空间,提出了两个设计编码器的原则,以平衡畸变 - 可操作性和畸变 - 知觉的权衡,从而为真实图片的编辑提供了更好的方法。
Feb, 2021
本文提出了 VecGAN 这样一个图像对图像的转换框架,它针对面部特征进行属性编辑,利用可解释的潜在方向解决精确属性编辑的挑战,并实现了对于其他图像属性的保全。该框架可以通过采样或项目编码从参考图像中获取标量值,整个模型通过端到端的训练,可以实现全局和局部修改,相较于现有技术取得了更好的效果。
Jul, 2022
通过 StyleGAN 反演技术,我们介绍了一种名为 StyleFeatureEditor 的新方法,可以在 w-latents 和 F-latents 两个潜变量空间中进行编辑,实现了对细节的精确重建和修改。与现有的编码方法相比,我们的模型在重建质量上表现优秀,并能够处理具有挑战性的领域外示例。
Jun, 2024
本文研究如何扩展 GAN 模型可达到的视觉效果,通过在生成器参数空间中探索方向,发现了许多可解释性方向,这是非常重要的,因为这些方向可以用于语义操作,这些操作无法通过转换潜在的向量代码实现。
Nov, 2020