BriefGPT.xyz
Ask
alpha
关键词
relu activation function
搜索结果 - 22
分段线性神经网络的近乎紧凑 VC 维度和伪维度限制
本文证明了深度神经网络中使用 ReLU 激活函数的 VC 维度上下界,并提供了具有不同 VC 维度的示例。此外,本文还证明了 VC 维度与权重和非线性单元数量之间存在紧密的关系,这些结论适用于任意分段线性激活函数。
PDF
7 years ago
ICML
通过串联整流线性单元了解和改进卷积神经网络
本篇论文提出了一种新的、简单而有效的激活方法,称为 CRelu,并将其与现有的卷积神经网络模型相结合,从而大大提高了它们在 CIFAR-10/100 和 ImageNet 数据集上的性能。
PDF
8 years ago
Prev
Next