该研究通过系统实验和理论构建发现,传统方法很难解释为什么大型神经网络的泛化性能良好,即使加入正则化仍然不会改变随机标记训练数据的状态,因为只要参数数量超过数据点数量,简单的两层神经网络就能实现完美的有限样本表达能力。
Nov, 2016
本研究探讨深度学习中的泛化现象,并发现隐式正则化通过优化方法在深度学习模型的泛化和成功方面起着关键作用,我们进一步研究了不同的复杂度度量,以确保泛化并解释了优化算法如何隐含地正则化这些复杂度度量,为了更好地研究神经网络中的不变量,我们提出了复杂度度量和优化算法,并在许多学习任务上进行了评估。
Sep, 2017
通过多次噪声注入来提高泛化性能使得深度神经网络可以更好地防止过拟合,本文提出了一种使用随机梯度下降迭代中每个训练样本的多个噪声样本来实现更紧密下界的技术,并在几个计算机视觉应用中展示了其优越性。
Oct, 2017
本文提供深度学习为何能够进行很好的泛化的理论洞察,同时探讨了为深度学习提供有效泛化保证的方法并提出了新的开放性问题与讨论了原有结果的限制。
本文发现梯度正规化可以在视觉任务中显著提高分类精度,特别是在训练数据较少的情况下。我们介绍了一种Jacobian-based的正规化方法,并在真实和合成数据上进行了实证研究,结果表明学习过程可以控制超出训练点的梯度,并产生良好的泛化能力。
Dec, 2017
研究了深度神经网络的正则梯度下降算法,并通过量化约束集合的复杂度以及研究覆盖维度来探索正则化技术在加速训练、提高泛化性能以及学习更高效紧凑模型方面的优势。
Feb, 2018
该研究构建了自定义正则化函数用于深度神经网络的监督训练,利用自动编码器得到正则化器,实现分段模型标签的训练,并在语义分割中展示了正则化策略对提高准确率的实验结果。
Apr, 2018
研究表明,对于深度神经网络的正则化应在其初期而非后期进行,且应当重视学习过程中的瞬态行为而非渐进行为。
May, 2019
本研究提出了一种基于正则化技术实现学习稀疏神经拓扑结构的方法,包括对非相关权重标定、压缩优化以及迭代式意义下的参数消除。在图像分类与自然语言生成任务中进行测试,并通过数据指标达到与或优于竞争对手等表现。
Apr, 2022
本文提出了一种利用归纳偏置驱动的网络设计原则和基于层的流形正则化目标来实现神经网络学习过程中提高内存效率的框架,该框架的使用结果相对于传统学习技术具有更好的绝对性能和实证一般化误差,可以无缝地与现有的网络压缩方法相结合。
May, 2023