StackGAN++:堆叠生成对抗网络实现逼真图像合成
本文提出StackGAN,借助生成对抗网络,通过文本生成真实的256x256图像,经过两个GAN进行图像细节加强和修复,并且引入新的条件增强技术以提高图像多样性和稳定性,并取得了重大进展。
Dec, 2016
本研究介绍一种基于深度卷积生成对抗网络的图像生成方法,能够使用少于两千张图像实现高分辨率(最大1024x1024像素)的真实感图像生成,未来可应用于计算机图形学和视觉效果。
May, 2017
本文提出了一种新方法,为生成目标图像,通过掌握给定背景信息,由文本属性生成目标物体图像,特别关注了控制物体和背景信息总和的多条件生成对抗网络方法(MC-GAN),在训练阶段通过生成物体和背景信息的合成块来实现。文中应用于实验,如Caltech-200鸟和Oxford-102花数据集,能够生成具有128 x 128分辨率的相片逼真的图像。
May, 2018
本文介绍了使用生成式对抗网络和正交正则化训练的大规模条件图片生成方法,并提出了一种截断技巧来控制生成器输入方差,从而在生成高保真度和多样化样本方面实现平衡。该方法应用于ImageNet数据集上,在128x128分辨率下,IS(Inception Score)为166.5,FID(Frechet Inception Distance)为7.4,表现超过之前的方法。
Sep, 2018
本篇论文探讨了使用DepthwiseGAN架构生成逼真图像的方法,并通过Fréchet Inception Distance对生成数据质量进行了评估。结果表明,DepthwiseGAN可以在较短的训练期间内生成逼真的图像,但是模型容量对于生成建模仍然具有重要作用。
Mar, 2019
本文提出了一种名为AEGAN的新型生成对抗网络,该网络使用自编码器学习真实图像的内在高级结构,并设计了一个新型的去噪网络来为生成的图像提供逼真的细节,从而能够直接从输入噪声生成512x512的高质量图像,结果比其他基线(包括Oxford-102 Flowers、Caltech-UCSD Birds(CUB)、高质量大规模CelebFaces属性(CelebA-HQ)、大规模场景理解(LSUN)和ImageNet)产生更好的知觉逼真度,即具有更清晰的结构和更丰富的细节。
Mar, 2019
本文文献是关于生成对抗网络(GAN)框架及其在视觉合成领域的应用和算法进行概述,包括图像翻译、处理、合成高分辨率照片等,并讨论其在内容创作中的应用。
Aug, 2020
综述文章介绍了生成对抗网络(GANs)在图像合成领域的各种应用,包括图像到图像的转换、融合图像生成、标签到图像映射和文本到图像生成,并总结了基于模型、特定于架构、约束、损失函数、评估度量和培训数据集开发思路等各种领域进展和具体实现,并提出了未来发展的潜在方向。
Dec, 2020
该研究提出了一个基于7种GAN架构、9种调节方法、4种对抗性损失以及13种正则化模块、3种可微增强方法、7种评估指标和5种评估指标的开源库StudioGAN,通过在多种数据集和三种不同的评估骨干(InceptionV3,SwAV和Swin Transformer)上训练基于BigGAN,StyleGAN2和StyleGAN3等最新生成模型的统一训练流水线中的可代表性GAN,并使用7种评估指标量化生成性能的大规模基准测评了各种前沿的生成模型,提供了预训练权重的GAN实现、训练和评估脚本。
Jun, 2022