BriefGPT.xyz
Ask
alpha
关键词
deep relu network
搜索结果 - 2
任何深度的 ReLU 网络都是浅层的
本文证明了每个深度 ReLU 网络可以被重写为具有扩展实值权重的功能相同的三层网络,并提供了一个算法,可以在给定深度 ReLU 网络的情况下找到相应浅层网络的显式权重,以透明地生成模型行为的解释。
PDF
a year ago
利用 Kolmogorov-Arnold 叠加定理为深度 ReLU 网络提供误差界限
通过 Kolmogorov - Arnold 叠加定理的建设性证明以及外部叠加函数可以通过深度 ReLU 网络有效逼近的一些多元连续函数的子集,我们证明了关于深度 ReLU 网络逼近多元函数的定理,其中降低了维度诅咒。
PDF
5 years ago
Prev
Next