该研究介绍了一种简单的正则化技术,在循环神经网络 (RNNs) 与长短期记忆 (LSTM) 单元上应用 Dropout 可以减少不同任务中的过度拟合,包括语言建模、语音识别、图像字幕生成和机器翻译等。
Sep, 2014
使用 dropout 技术可以极大地提高长短期记忆递归神经网络在无约束手写识别中的性能表现。
Nov, 2013
本文研究了快速 Dropout(一种用于常规线性模型和神经网络的正则化方法)的后向传递启发式视角,证明了它实现了自适应、参数之间的二次正则化项,对欠拟合情况下的大权重进行奖励,对过度自信预测进行惩罚,并在未正则化的训练损失极小值处消失。该正则化项的导数完全基于训练误差信号,因此没有全局权重吸引器,这可以改善 RNN 的性能。作者基于四个音乐数据集,证实了该假设。
本文提出了一种名为同胞 dropout 的简单技术,利用 dropout 思想训练两个相同参数的 RNN,通过最小化这些 RNN 的(pre-softmax)预测之间的差异,从而使 RNN 的表示对于 dropout 掩码不变。在序列建模和图像字幕任务中达到了最先进的结果。
Oct, 2017
该论文介绍了一种基于变分推断的 dropout 新技术,并探讨了如何将其应用到 LSTM 和 GRU 模型中,这种方法表现优于现有技术,并在语言模型中取得了最佳结果。
Dec, 2015
通过采用敌对概念生成的 dropout mask 来改进循环神经网络的性能,实现了对于时序 MNIST 任务、半监督文本分类任务和语言建模任务中 RNNs 的 dropout 技术的有效性提高。
Apr, 2019
本文中介绍了一种简单的正则化方法 R-Drop,该方法强制不同子模型生成的输出分布相互一致,从而提高了深度学习模型的效果。通过在 5 个深度学习任务(包括神经机器翻译、摘要概括、语言理解、语言建模和图像分类)上的实验证明,R-Drop 是普遍有效的,并在 Vanilla Transformer 模型上实现了最先进的性能。
Jun, 2021
介绍了一种使用 DropConnect 和 NT-ASGD 等方法进行 LSTM 正则化优化的模型,在 Penn Treebank 和 WikiText-2 数据集上取得了最佳的困惑度表现,并探索了神经缓存对模型性能的影响。
Aug, 2017
本文通过使用传统正则化技术 L2 规则化和缓慢规则化来提高 RNN 对于语言建模任务的性能,而这两种技术只需要对现有 RNN 架构进行最小修改,即可获得与复杂正则化技术或自定义单元结构相媲美或更好的性能表现,并且这些技术可以在现有的优化 LSTM 实现上无需进行任何修改。
本文通过采用稀疏变分 dropout 技术和二元变分 dropout 技术,对循环神经网络进行稀疏化处理,并在情感分析和语言建模任务中取得了较高的稀疏度和较低的信息损失。
Jul, 2017