MMNov, 2022

生成对抗训练可以提高神经语言模型的表现

TL;DR本文提出了一种基于生成对抗网络和对抗性训练的正则化方法,可以在神经语言模型中防止过拟合,与常见的对抗性训练方法相比,本方法不需要经过时间的二次反向传播,并且其开销不超过基准方法的 20%。