BriefGPT.xyz
Ask
alpha
关键词
weight-decay
搜索结果 - 3
理解归一化层的泛化增益:锐化减少
通过数学分析和实验证明,在深度网络中引入标准化层(例如批量标准化,层标准化)有利于优化并促进泛化,同时对于包含标准化的一类神经网络,伴随权值衰减的标准化可以鼓励梯度下降到达稳定边缘,并且对于这种情况,可以确定梯度下降的流动轨迹。
PDF
2 years ago
ICLR
ReLU 网络中批归一化的解析:等价的凸优化模型与隐式正则化
本文通过凸优化的视角分析 Batch Normalization,提出了一个基于凸对偶的解析框架,可以精确地描述用 Batch Normalization 训练的带有权重衰减的 ReLU 网络,并证明在高维和过参数化情况下,理论上可以获得一
→
PDF
3 years ago
规范化重要性:深度神经网络中高效准确的规范化方法
本研究提出了一种新的对归一化方法和权值衰减的目的和功能的视角,并建议了几种常用 L2 批归一化的替代方案,包括 L1 和 L∞范数中的归一化,以提高计算和内存效率,并且在低精度实现中大幅提高了数值稳定性,并且还提出了一种改进重要性重归一化的
→
PDF
6 years ago
Prev
Next