具有语义 - 空间感知的 GAN 图像生成
该文提出了一种新的文本图像生成模型,使用基于语义的标准化处理和图像嵌入策略来实现高水平的语义一致性和低水平的语义多样性,并在 CUB 和 MS-COCO 数据集上展示了其优异性能。
Apr, 2019
通过生成对抗网络(GAN)或变压器模型进行文本到图像生成。提出了一种方法,利用人工智能模型进行主题创造,并对实际绘画过程进行分类建模。通过将所有视觉元素转化为可量化的数据结构来创建图像,并与现有的图像生成算法进行语义准确性、图像可复现性和计算效率方面的有效性评估。
Dec, 2023
利用递归神经网络和深度卷积生成对抗网络构建了新的深度架构和 GAN 公式,将字符转换为像素,有效地将文本和图像建模相结合,从而实现了从详细文本描述中生成花和鸟的逼真图像的能力。
May, 2016
本文提出一种基于 DCGAN 的压缩图像生成方法,旨在实现对文本描述的压缩视觉数据直接生成,并在压缩形式下实现了最先进的性能。
Oct, 2022
本文提出 StackGAN,借助生成对抗网络,通过文本生成真实的 256x256 图像,经过两个 GAN 进行图像细节加强和修复,并且引入新的条件增强技术以提高图像多样性和稳定性,并取得了重大进展。
Dec, 2016
采用音频表示与图像生成的融合结构,实现单阶段的语音到图像生成,比基于多阶段模块的现有方法更有效,更高效,性能与传统的文本到图像方法相当。
May, 2023
本文提出一种文本适应的生成对抗网络 (TAGAN),用以保留不相关的图片内容,并根据自然语言描述进行图像属性的语义修改。该网络通过创建词级本地判别器,按照输入的文本进行细粒度属性的独立分类,实现只修改特定区域的图像。经实验验证,该方法在 CUB 和 Oxford-102 数据集上比现有方法表现更好。
Oct, 2018
本文提出了一种动态方面感知 GAN(DAE-GAN)以及一个新颖的面向方面感知的动态重绘制器(ADR),该方法可以在文本到图像综合中利用方面信息并具有较高的真实感和语义一致性。
Aug, 2021
该论文提出了一种新颖的可控文本到图像生成对抗网络 (ControlGAN),它能够有效地合成高质量图像并根据自然语言描述控制图像的生成。该方法采用词级空间和通道注意力机制对不同的视觉属性进行分离,并通过词级鉴别器提供细粒度的监督反馈,使生成器能够对特定的视觉属性进行操作。通过大量的实验证明,我们的方法优于现有的最先进技术,并能够通过自然语言描述有效地操作合成图像。
Sep, 2019