本文提出了一种基于条件生成对抗网络的图像描述框架,添加了 “辨别器” 网络去逐步判断生成的描述是人类描述还是机器生成的,该算法是通用的,能够提高任何现有的基于 RL 的图像描述框架,实验表明,这种方法在不同的语言评估指标上有一致的改进。
May, 2018
提出一种基于条件生成对抗网络的比较式对抗学习框架,能够在图像描述任务中生成不仅准确而且多样化的描述语句。
Apr, 2018
本文中,我们提出了一个新颖的基于标题的时序生成对抗网络(TGANs-C)来生成视频,该网络结合了数据的语义和时间上的一致性。我们通过定性和定量实验验证了我们的提议,并展示了在给定标题的情况下生成逼真视频的能力。
本文探讨了使用 GAN 自学习等机制解决自然语言生成中离散输出空间问题;通过实验表明,提出的模型在中文古诗生成数据集上取得了最新的高分,可以生成自由语序和概率性上下文无关语法。此外还介绍了一个条件模型,可根据句子特征生成序列。
May, 2017
本文利用自编码器生成低维度语句向量空间,再用生成对抗网络利用这个空间生成真实文本,与竞争基线相比,经人工审核和 BLEU 分数表明模型可以生成逼真的文本。
Oct, 2018
该研究介绍了一种名为 RoCGAN 的新型条件 GAN 模型,该模型在图像生成的任务中表现优异,并在面临严重噪声的情况下使生成器输出的图像更接近目标空间,实验结果表明,RoCGAN 在各种领域的表现都远优于现有的最先进的 cGAN 架构。
提出了一种单一的文本到图像生成和操纵的流程,其中在我们的流程的第一部分,介绍了 TextStyleGAN 这个在文本上进行训练的模型;第二部分使用预训练的 TextStyleGAN 权重进行语义面部图像操纵,并通过在潜空间中找到语义方向来完成。我们展示了该方法可以用于广泛的面部图像属性操纵,并介绍了 CelebTD-HQ 数据集作为 CelebA-HQ 的扩展,其中包含了人脸及相应的文本描述。
May, 2020
提出一种名为 ATTEND-GAN 的图像描述模型,其利用基于注意力的描述生成器和对抗训练机制,使生成的描述具有相关性和更广泛的风格变化,证明其优于现有技术并提供更好的图像描述。
Aug, 2019
本文提出了一种新颖的生成对抗网络 RankGAN,用于生成高质量的自然语言描述,其通过给定一个参考组来分析和排名一组人工编写和机器编写的句子,通过相对排名分数来评估数据集的质量以帮助学习更好的生成器,并使用策略梯度技术来优化 RankGAN。多个公共数据集的实验结果清楚地证明了所提出方案的有效性。
本研究提出了一种新的方法,改进了生成对抗网络(GANs)训练的能力,可以根据文本输入合成多样的图像,这种方法基于条件版本的 GANs,扩展了前人利用判别器中的辅助任务,通过负样本采样来构造积极和消极的训练样例,通过牛津 102 花卉数据集的实验结果表明,生成的图像更具多样性,特别是当负样本逐渐靠近语义空间中的积极样本时。
Dec, 2018