生成协作网络用于自然语言生成
本文探讨了使用GAN自学习等机制解决自然语言生成中离散输出空间问题;通过实验表明,提出的模型在中文古诗生成数据集上取得了最新的高分,可以生成自由语序和概率性上下文无关语法。此外还介绍了一个条件模型,可根据句子特征生成序列。
May, 2017
本研究通过采用大批处理、密集奖励和鉴别器规则等现有技术来稳定和改善语言生成对抗网络,从而成功实现了ScratchGAN的从零训练,并表明其在语料库EMNLP2017 News和WikiText-103上的质量和多样性指标相当于最大似然训练。
May, 2019
本文针对图像翻译中具有复杂架构、参数数量众多、计算复杂度较高的生成器,提出了一种全新的协同进化方法,以减少其内存使用量及乘法操作次数,从而在图像翻译中实现紧凑高效的生成器设计。Experiments表明,该方法的有效性得到了充分的验证。
Jul, 2019
提出了一种称为ARAML的新框架,通过采用最大似然估计算法以及与强化学习中不同的奖励函数,来优化文本GAN模型的性能。实验证明,这种模型能比现有模型更稳定、更优秀地生成文本。
Aug, 2019
本文提出一种新的方法,通过引入协作训练和元学习机制,有效地减缓了对抗性生成网络中的模式崩溃,实现了在生成质量和多样性方面显著胜过基线方法的结果。
Mar, 2020
本文提出一种名为ColdGANs的综合探索策略的GAN框架,用于解决基于Maximum Likelihood Estimation培训的文本生成算法的局限性,并展示了ColdGANs相比于其他RL算法以及MLE在三个文本生成任务中的效果更好。
Jun, 2020
本文提出了一种自洽学习的框架,利用生成对抗网络的生成模型和判别模型的博弈优化,使两者协同训练,避免了GAN训练不稳定的问题,并在句子语义匹配问题上实现了较好的性能。
Mar, 2023
该研究介绍了一种使用语言模型和生成对抗网络相结合的方法,通过优化可微模型,直接生成图形,以此解决了在可能的图形离散和广泛的空间中进行昂贵的搜索过程的问题。该方法得分为0.36和0.48,与ChatGPT一样表现良好,具有所需的特性增益。
Jun, 2023