BriefGPT.xyz
Ask
alpha
关键词
two-layer relu networks
搜索结果 - 2
二层 ReLU 网络中的隐藏最小值
研究了拟合具有 $d$ 个输入、$k$ 个神经元和由目标网络生成的标签的两层 ReLU 网络的优化问题。通过研究隐藏极小值,发现了两类无穷族的最小值,每个 $d$ 和 $k$ 有一个最小值。第一类中的最小值的损失在 $d$ 增加时趋近于零,
→
PDF
6 months ago
用对数次数即可使浅层 ReLU 网络梯度下降达到任意小的测试误差
该研究表明,通过梯度下降训练过度参数化的神经网络可以实现任意低的训练误差和测试误差。在两层 ReLU 网络中,只需要多项式量级的宽度和样本数量进行训练,可以达到较低的测试误差,并在无穷宽度下得出紧密样本复杂度分析。
PDF
5 years ago
Prev
Next