MMNov, 2022
生成对抗训练可以提高神经语言模型的表现
Generative Adversarial Training Can Improve Neural Language Models
Sajad Movahedi, Azadeh Shakery
TL;DR本文提出了一种基于生成对抗网络和对抗性训练的正则化方法,可以在神经语言模型中防止过拟合,与常见的对抗性训练方法相比,本方法不需要经过时间的二次反向传播,并且其开销不超过基准方法的 20%。
Abstract
While deep learning in the form of recurrent neural networks (RNNs) has
caused a significant improvement in neural language modeling, the fact that
they are extremely prone to →
deep learningrecurrent neural networksgenerative adversarial networksadversarial trainingoverfitting
发现论文,激发创造
自然语言的对抗生成
本文探讨了使用 GAN 自学习等机制解决自然语言生成中离散输出空间问题;通过实验表明,提出的模型在中文古诗生成数据集上取得了最新的高分,可以生成自由语序和概率性上下文无关语法。此外还介绍了一个条件模型,可根据句子特征生成序列。
May, 2017
C-RNN-GAN: 连续的递归神经网络与对抗性训练
提出了一种基于生成对抗网络的模型,可以高效地训练连续的序列数据,通过在古典音乐集合上训练该模型来生成音乐,发现音乐的质量随着模型的训练不断提高,并提供了生成音乐的统计数据,通过下载生成的歌曲来评估其质量。
Nov, 2016
正则化生成对抗网络
提出一个基于对抗生成网络的新模型 RegGAN,该模型可以在生成样本的同时训练三个网络 —— 一个生成器和两个判别器,以便从与训练集概率分布不同的概率分布中生成样本,并可用于学习拓扑学中的某些先验概念。
Feb, 2021
生成对抗性训练器:用 GAN 对抗对抗性扰动
我们提出了一种新的技术,使用生成对抗网络使神经网络对抗性示例具有鲁棒性,通过交替训练分类器和生成器网络,我们成功地应用于 CIFAR 数据集的监督学习,实验结果表明我们的方法显著降低了网络的泛化误差。这是我们所知道的第一个使用 GAN 改进监督学习的方法。
May, 2017
从零开始训练语言 GANs
本研究通过采用大批处理、密集奖励和鉴别器规则等现有技术来稳定和改善语言生成对抗网络,从而成功实现了 ScratchGAN 的从零训练,并表明其在语料库 EMNLP2017 News 和 WikiText-103 上的质量和多样性指标相当于最大似然训练。
May, 2019
使用生成对抗网络学习生成椅子
本文探讨了使用生成对抗网络 (GAN) 合成高度逼真图像的优化问题,针对当下模型存在的问题,提出了一种修改规则和设计模型的方法。实验表明,我们的方法可以更有效地训练 GAN 模型,并以 3D 物体投影问题为例进行了验证。
May, 2017