BriefGPT.xyz
Ask
alpha
关键词
two-layer neural network
搜索结果 - 5
神经网络规模定律的信息论基础
通过建立信息论基础,我们研究了神经缩放定律,并揭示了在无限宽度的两层神经网络生成的数据中,数据和模型大小的最佳关系大致呈线性,进一步验证了大规模的实证研究结果。
PDF
8 days ago
学习多样特征之和:计算难度和基于梯度的高效训练用于冈脊组合
研究具有加法结构的目标函数学习的计算和样本复杂性,证明了多项式 target function 可以通过梯度下降法训练两层神经网络高效地学习,同时建立了统计查询算法的边界。
PDF
19 days ago
浅层网络在逼近和学习高频时的挑战:数值研究
通过分析和实验,本文综合数值研究了为什么两层神经网络在处理高频逼近和学习时在实践中的机器精度和计算成本是重要因素的情况下存在困难。
PDF
a year ago
学习具有对称输入的两层神经网络
提出了一种学习两层神经网络的新算法,仅需对称输入的条件下,使用基于矩估计的方法结合张量分解的扩展与谱算法,可以在许多对称输入分布下更少的样本数量下稳健地恢复神经网络的参数。
PDF
6 years ago
通过结构化数据上的随机梯度下降学习超参数神经网络
本文研究了使用随机梯度下降法从随机初始化开始学习两层超参数化 ReLU 神经网络以进行多类分类问题,证明了当数据来自于分离度高的混合分布时,SGD 学习到的网络具有较小的泛化误差,分析了学习神经网络的几个方面并在合成数据和 MNIST 数据
→
PDF
6 years ago
Prev
Next