本文提出了一种新的 GAN 架构 GigaGAN,用于文本到图像合成,并比较了其与传统的 GANs 和 DALL-E2 的性能,结果表明 GigaGAN 可以快速且高质量地合成高分辨率图像。
Mar, 2023
该论文旨在使用生成对抗网络改进大规模文本到图像合成,提出了 StyleGAN-T 模型,它在大规模文本到图像合成中具有大容量、稳定的训练、强文本对齐和可控变化与文本对齐平衡等特点,并在样本质量和速度方面显著优于以前的生成对抗网络和蒸馏扩散模型。
Jan, 2023
本文介绍了使用生成式对抗网络和正交正则化训练的大规模条件图片生成方法,并提出了一种截断技巧来控制生成器输入方差,从而在生成高保真度和多样化样本方面实现平衡。该方法应用于 ImageNet 数据集上,在 128x128 分辨率下,IS(Inception Score)为 166.5,FID(Frechet Inception Distance)为 7.4,表现超过之前的方法。
Sep, 2018
使用改进的模型结构和训练方法,对 StyleGAN 生成器的规范化、进化成长和正则化进行了重新设计,并引入了路径长度正则化器,以改善图像质量和生成器的可逆属性。通过可视化生成器对其输出分辨率的使用情况,识别容量问题并进行大规模模型的训练,使得该模型在无条件图像建模领域中的分布质量和感知图像质量均达到了最高水平。
Dec, 2019
本篇论文的研究目的是探讨如何在边缘设备上使用风格生成网络,并引入 MobileStyleGAN 结构,其参数量和计算复杂度分别为 StyleGAN2 的 1/3.5 和 1/9.5,同时提供可比较的生成质量。
Apr, 2021
本研究从数据工程的角度出发,收集并注释了一个大规模人类图像数据集,并通过实验研究了数据量、数据分布和数据对齐等因素对 StyleGAN 生成高保真无条件人类图像的影响。结果显示,需要超过 40K 的大规模数据来训练高保真的 StyleGAN 生成模型;平衡的训练集有助于提高对罕见姿势的生成质量,而简单平衡服装纹理分布并不能有效改善生成效果;以身体中心为对齐锚点的人类 GAN 模型胜过使用面部中心或骨盆点对齐的模型。
Apr, 2022
本文提出了一种基于 StyleGAN 的自我蒸馏方法,通过生成图像的自我筛选和感知聚类来解决从互联网采集的未加工图像数据集中存在的离群值和多模态分布等挑战,实现高质量图像的生成。
Feb, 2022
本文提出了一种基于 StyleGAN2 预训练模型的图像翻译方法,可在不平衡数据上进行无监督学习,通过简单的微调技术即可学习有限数据,并且可以生成符合源图像结构的逼真目标图像。
Jun, 2021
我们提出了一种新颖的框架 InfinityGAN,用于与任意大小的图像生成相关的任务,它在资源和真实性方面具有优越性能,并可应用于空间风格融合、多模式外油漆和图像中间。
本文介绍了 GANs 和 StyleGAN,讨论了其在图像合成和潜在空间方面的应用和研究趋势,强调了其生成图像编码的潜力和限制,以及视觉先验的构建和使用,同时指出了任务和目标特定的研究方向。