学习浅层网络的更快更简单算法
我们提出了一个基于随机高阶矩张量收缩的多尺度算法,用于发现个别神经元。在学习由 $k$ 个 ReLU 激活的线性组合方面,该算法是首个在多项式时间内成功的,而且无需额外假设网络的正系数或隐藏权重向量的矩阵具有良好的条件数。
Apr, 2023
本研究旨在研究使用标准高斯分布下的 ReLU 激活函数的线性组合进行 PAC 学习的问题,并提出了一种具有高效样本和计算复杂度的算法,其复杂度接近于相关统计查询算法类中的最优复杂度。该算法使用张量分解识别出一个子空间,使其在正交方向上的所有 O (k) 阶矩都很小,并利用 Schur 多项式理论证明了当较低阶矩均很小时,较高阶矩误差张量也很小。
Jul, 2023
本论文研究了具有 $k$ 个隐藏单元的一层 ReLU 网络在高斯边缘下学习的问题,并提出了适用于正系数情况的首个多项式时间算法,解决了此前在 $k≤3$ 情况下无多项式时间算法的开放性问题。然而,对于具有任意实系数的一层 ReLU 网络的 PAC 学习问题,则证明了一个统计查询下界,说明其难以在多项式时间内得到解决。
Jun, 2020
本研究提出了有效学习基于 ReLU 的常深度网络的算法,该算法运用了核方法、多项式逼近和凸优化的 “双损失” 方法,同时获得了解决 “凸分段线性拟合” 和 “在单位球上低权重多项式的噪音重构” 等其他应用。
Nov, 2016
ReLU shallow neural networks can uniformly approximate functions from the H"older space with rates close to the optimal one in high dimensions.
Jul, 2023
研究了在 $L^2$ 意义下逼近分类器函数所需的 ReLU 神经网络的深度和权重数量,构造了一类具有固定层数的人工神经网络,使用 ReLU 激活函数逼近可允许不连续的分段 $C^β$ 函数,权重数量为 $O (ε^{-(2 (d-1))/β})$,并证明这是最优的。此外,为了实现最优逼近率,需要具有一定深度的 ReLU 网络。最后,分析了在高维空间中使用特征映射和分类器函数逼近的情况。
Sep, 2017
该研究提出了一种 PTAS 方法,用于学习随机的常数深度网络,可以较好地适用于学习 Xavier 网络以及 ReLU 等激活函数的情形,并具有准多项式时间复杂度。
May, 2023
使用一种称为过滤式 PCA 的新工具来解决学习具有 ReLu 激活函数的神经网络的问题,该算法可以快速,并且不需要权重具有良好的条件或正系数的假设。
Sep, 2020
本研究基于黑盒访问网络,提出第一个多项式时间算法以学习任意单隐藏层神经网络激活函数,并在高斯测量意义下实现对原神经网络的低二次误差,即使在最坏情况网络下,算法仍保证良好的效率。
Nov, 2021