文本到图像合成的 GAN 扩展
该论文旨在使用生成对抗网络改进大规模文本到图像合成,提出了 StyleGAN-T 模型,它在大规模文本到图像合成中具有大容量、稳定的训练、强文本对齐和可控变化与文本对齐平衡等特点,并在样本质量和速度方面显著优于以前的生成对抗网络和蒸馏扩散模型。
Jan, 2023
使用强大的神经网络先验和渐进增长策略,成功地在 ImageNet 上训练了最新的 StyleGAN3 生成器,创造了新的 StyleGAN-XL 模型,并在大规模图像合成方面取得最新的技术突破。
Feb, 2022
在输入多张图像且需要大规模输出的纹理合成问题中,本文基于生成对抗网络提出两个扩展解决方案,一是结合较小分辨率的 GAN 训练产生边界无明显痕迹的大规模纹理地图,二是提供用户界面进行艺术控制,我们的定量和定性结果展示了合成高分辨率地图的成功案例。
Apr, 2019
本文介绍了使用生成式对抗网络和正交正则化训练的大规模条件图片生成方法,并提出了一种截断技巧来控制生成器输入方差,从而在生成高保真度和多样化样本方面实现平衡。该方法应用于 ImageNet 数据集上,在 128x128 分辨率下,IS(Inception Score)为 166.5,FID(Frechet Inception Distance)为 7.4,表现超过之前的方法。
Sep, 2018
该研究论文提出了一种名为 DF-GAN 的新型深度融合生成对抗网络,用于更加高效地合成与文本相匹配的高质量真实图片,并在广泛使用的数据集上取得更好的性能。
Aug, 2020
利用递归神经网络和深度卷积生成对抗网络构建了新的深度架构和 GAN 公式,将字符转换为像素,有效地将文本和图像建模相结合,从而实现了从详细文本描述中生成花和鸟的逼真图像的能力。
May, 2016
我们提出了一种新颖的框架 InfinityGAN,用于与任意大小的图像生成相关的任务,它在资源和真实性方面具有优越性能,并可应用于空间风格融合、多模式外油漆和图像中间。
Apr, 2021
通过利用大规模的文本到图像扩散模型进行数据提炼,我们提出了一种更高效的方法,通过精细调整通用化特征的基础生成对抗网络模型,而不是重新训练整个基础模型,并采用简单但有效的秩搜索过程来进行低秩适应,从而显著减少了培训成本和与每个概念相关的存储,使得移动设备能够高效地实现实时高质量的图像编辑。
Jan, 2024
本文提出 StackGAN,借助生成对抗网络,通过文本生成真实的 256x256 图像,经过两个 GAN 进行图像细节加强和修复,并且引入新的条件增强技术以提高图像多样性和稳定性,并取得了重大进展。
Dec, 2016