引导式 Dropout
通过将传统的二值 Dropout 扩展为连续 Dropout,本文介绍了一种更贴近于神经元活动特性的 Dropout 算法,并在多个图像数据集上和其他 Dropout 算法进行对比实验,结果表明该方法在避免特征检测器的共适应方面表现更好,同时提高了测试性能。
Nov, 2019
研究表明,Dropout 不仅是一种常用的 Deep Learning 正则化器,而且可以视为对网络参数进行近似贝叶斯推断的一种方式。该论文提出了一种名为 Generalized Dropout 的正则化器家族,并介绍了该家族的一些成员,如可训练参数版本的 Dropout++ 和选择神经网络层宽的方法。实验证明,这些方法比 Dropout 在泛化性能方面更好。
Nov, 2016
本文主要研究 dropout 在深度学习中的应用,发现 dropout 会在单隐藏层线性神经网络中导致隐藏节点的输入 / 输出权重向量模长相等,同时提供了 dropout 所导致的优化景观的完整特征描述。
Jun, 2018
本文研究表明,与只在训练后期使用 dropout 的模型不同,在训练开始时使用 dropout 可减弱梯度方向差异和限制单个批次对模型训练的影响,从而更好地提高模型的泛化精度。
Mar, 2023
该论文介绍了一种名为 “多样本丢弃” 的强化丢弃 (dropout) 技术,它可以加速训练并提高网络的泛化性能。该方法采用多个丢弃样本进行训练,并通过对这些样本的损失值求平均来减少过拟合,实验结果表明,相比原始的 dropout 技术,使用该方法可以得到更低的分类错误率。
May, 2019
本研究提出了一种 Hierarchical mixture of experts 的 dropout 变种,用于防止多层神经网络中的过拟合,可以在许多层级的树上预防 overfitting,从而提高泛化性能和提供更平滑的拟合。
Dec, 2018
本研究比较了 Dropout 和 Stochastic Delta Rule 两种算法在神经网络的参数估计任务上的表现,结果发现 SDR 相对于 Dropout 具有更好的性能。
Aug, 2018