GR-GAN: 逐步细化的文本到图像生成
本文提出StackGAN,借助生成对抗网络,通过文本生成真实的256x256图像,经过两个GAN进行图像细节加强和修复,并且引入新的条件增强技术以提高图像多样性和稳定性,并取得了重大进展。
Dec, 2016
本研究提出一种动态内存生成对抗网络(DM-GAN),用于解决现有文字生成图片方法在生成高质量图像过程中存在的问题。DM-GAN 能够更准确地从文本描述生成图像,其中一个动态内存模块被引入以完善模糊的图像内容,并通过一个内存写入门来选择重要的文本关键信息。实验结果表明,DM-GAN 模型在 Caltech-UCSD 鸟类 200 数据集和 Microsoft COCO 数据集上的性能超越了现有方法。
Apr, 2019
该研究论文提出了一种名为 DF-GAN 的新型深度融合生成对抗网络,用于更加高效地合成与文本相匹配的高质量真实图片,并在广泛使用的数据集上取得更好的性能。
Aug, 2020
该论文介绍了一种基于生成式对抗网络的图像生成方法,引入了一种简单有效的语义-空间感知块,学习语义自适应变换,并在弱监督方式下学习语义掩膜,从而在保持视觉保真度的同时,能够对输入文本精准对齐。
Apr, 2021
本文提出了一种新颖的循环一致性逆向生成对抗网络(CI-GAN)框架,用于文本到图像生成和文本引导下的图像操作任务,在该框架中,我们采用循环一致性训练来学习更加稳健一致的潜变量,并通过学习文本表示与潜变量之间的相似度模型,在文本引导的优化模块中生成具有所需语义属性的图像,实验证明该框架具有良好的性能。
Aug, 2021
本文提出了一种动态方面感知 GAN(DAE-GAN)以及一个新颖的面向方面感知的动态重绘制器(ADR),该方法可以在文本到图像综合中利用方面信息并具有较高的真实感和语义一致性。
Aug, 2021
本文提出了一种新的动态语义演化生成对抗网络(DSE-GAN),采用单个生成器-鉴别器对的单个对抗训练架构,在每个阶段根据历史阶段的状态(即历史阶段的文本和图像特征)对文本特征进行自适应重新组合,以在粗到细的生成过程中提供多样化和准确的语义引导。在广泛使用的CUB-200和MSCOCO数据集上,实验结果表明该模型相对FID分别提高7.48%和37.8%。
Sep, 2022
该论文旨在使用生成对抗网络改进大规模文本到图像合成,提出了StyleGAN-T模型,它在大规模文本到图像合成中具有大容量、稳定的训练、强文本对齐和可控变化与文本对齐平衡等特点,并在样本质量和速度方面显著优于以前的生成对抗网络和蒸馏扩散模型。
Jan, 2023
使用粗略匹配的文本作为引导,本研究介绍了一种新颖的基于文本的风格生成方法,通过两阶段的生成对抗网络生成与细化图像风格,并通过实验证实了该方法的有效性和实际应用价值。
Sep, 2023
本研究解决了从文本生成逼真图像这一计算机视觉领域的难题。通过对比五种基于生成对抗网络(GAN)的方法,本文揭示了不同模型架构在生成图像时的分辨率差异,并确定了最佳和最差的分辨率。这项研究的关键发现是识别了性能最优的模型,为文本到图像生成提供了指导。
Oct, 2024