BriefGPT.xyz
大模型
Ask
alpha
关键词
relu neuron
搜索结果 - 2
ReLU 网络在平方损失下的隐式正则化
针对非线性神经网络的回归损失(如平方损失),研究其隐含正则化(即隐含偏差)的特性,虽然已成为一个活跃的研究领域,但迄今为止仍未得到深入探究。本文通过一些证明,表明甚至对于单个 ReLU 神经元,无法利用原模型参数的任何显式函数来表征隐含正则
→
PDF
4 years ago
随机特征在理解神经网络中的能力和局限
本文回顾了最近一系列训练超参数神经网络和学习随机特征的实证结果及其限制性说明,论述了神经网络的理论困境并对其表现出的令人印象深刻的经验结果提出了仍需克服的挑战。
PDF
5 years ago
Prev
Next