GAN 中的多个条件输入解耦
本文提出了一种新颖的端到端 3D 感知图像生成和编辑模型,通过纯噪声、文本和参考图像等多种条件输入,在 3D 生成对抗网络(GANs)的潜在空间中深入研究并提出解缠特性较好的生成策略,同时采用统一框架进行灵活的图像生成和编辑任务,实现多模态条件下的多样图像生成、属性编辑和风格迁移。广泛实验证明,该方法在图像生成和编辑方面在质量和数量上均优于替代方法。
Mar, 2024
这篇论文提出了一种简单而高效的方法来解决条件生成式对抗网络(cGAN)中的模式崩塌问题,它通过显式地规范化生成器以产生不同的输出来控制可变因素,从而在视觉质量和多样性之间实现平衡,这种方法在图像翻译、图像修补、未来预测等多个条件生成任务中取得了出色的效果。
Jan, 2019
本文介绍了一种基于生成对抗网络的多条件控制方法,通过对大量人类绘画进行训练,生成模拟人类艺术的逼真画作,提供了对生成画作的特征进行精细控制,针对多条件生成,引入了条件截断技巧,并使用一系列评估技术对生成结果进行定量分析。
Feb, 2022
该研究提出了一种新的无监督算法 ——Style and Content Disentangled GAN(SC-GAN),该算法可以让训练的生成敌对网络(GAN)以一种分离风格和内容的方式学习数据的表征。
Nov, 2018
该论文提出了一种基于梯度信息的新方法,探索生成对抗网络 (latent space) 中的非线性控制,实现了多方向控制和有效解缠,这使得 GANs 的可控生成问题得到了解决。
Sep, 2022
提出了一种单一的文本到图像生成和操纵的流程,其中在我们的流程的第一部分,介绍了 TextStyleGAN 这个在文本上进行训练的模型;第二部分使用预训练的 TextStyleGAN 权重进行语义面部图像操纵,并通过在潜空间中找到语义方向来完成。我们展示了该方法可以用于广泛的面部图像属性操纵,并介绍了 CelebTD-HQ 数据集作为 CelebA-HQ 的扩展,其中包含了人脸及相应的文本描述。
May, 2020
本文探讨了生成对抗网络的应用在时尚设计上的可能性。实验表明,基于属性的 GAN(AttGAN)可以成功编辑时装的视觉特性,但也提示着 GAN 在设计概念的属性级别编辑上所存在的一些关键限制和未来需要解决的研究问题。
Jul, 2020
本文探讨了一种对 StyleGAN 体系结构的条件扩展方法,通过使用合成类别条件提高网络的可控性和结果的分辨率,同时研究了提取这些类别条件的方法以增加人的可解释程度。实验证明,条件模型相对于无条件的模型可以更好的嵌入细节,产生更多样化和高质量的输出结果。
Sep, 2019
提出了一种名为 VariGANs 的新的图像生成模型,采用变分推断和生成对抗网络的结合,通过粗到细的方式生成多视角衣物图像,比现有方法生成的图像更富有一致性的全局外观以及更丰富和更锐利的细节。
Apr, 2017
通过多个噪声编码与全连接层进行注入噪声的设计选择,实现了对生成对抗网络(GANs)的潜在空间进行解缠纷的目标,并达到更好的解缠纷分数,同时实现了对生成图像的空间解缠纷、尺度空间解缠纷和前景对象与背景样式的解缠纷,从而实现了对生成图像的精细控制。
Apr, 2020