BriefGPT.xyz
Ask
alpha
关键词
relu layers
搜索结果 - 2
针对 ReLU DNN 的变换复杂度的理论分析
本文提出了一种使用信息论度量转换复杂度的指标,并探究了转换复杂度与 disentanglement 之间的强相关性,进一步分析了 DNN 训练过程中的两个典型现象,还探讨了 DNN 复杂度的上限,并使用提出的指标作为损失,学习具有最小复杂度
→
PDF
2 years ago
对具有深度精确依赖的 ReLU 网络的尖锐表示定理
该论文证明了具有 $D$ ReLU 层的神经网络在平方损失下对某类函数的表示结果,证实了深度网络可以更好地表示不太光滑的函数,其主要技术创新是充分利用深层网络可以用少量激活函数产生高振荡函数的事实。
PDF
4 years ago
Prev
Next