学习窄的一层 ReLU 网络
本研究旨在研究使用标准高斯分布下的 ReLU 激活函数的线性组合进行 PAC 学习的问题,并提出了一种具有高效样本和计算复杂度的算法,其复杂度接近于相关统计查询算法类中的最优复杂度。该算法使用张量分解识别出一个子空间,使其在正交方向上的所有 O (k) 阶矩都很小,并利用 Schur 多项式理论证明了当较低阶矩均很小时,较高阶矩误差张量也很小。
Jul, 2023
我们研究了学习从标准的 d 维高斯度量中绘制的带有标签的示例的 k 个 ReLU 激活的线性组合的问题。我们发现了一个简化的一阶段版本的算法,其运行时间只有 (d/ε)^O (k^2)。
Jul, 2023
本文研究从标准高斯分布采样输入,从嘈杂的教师网络生成输出的一层隐藏神经网络的学习问题。研究分析了梯度下降在基于经验风险最小化的训练中的性能,并提供了算法相关的保证,证明了张量初始化后跟随梯度下降可以以线性速率收敛到地面真值参数,证明本文是第一个表征实际学习具有多个神经元的一层 ReLU 网络的恢复保证的工作。数值实验验证了我们的理论发现。
Jun, 2018
本论文研究了具有 $k$ 个隐藏单元的一层 ReLU 网络在高斯边缘下学习的问题,并提出了适用于正系数情况的首个多项式时间算法,解决了此前在 $k≤3$ 情况下无多项式时间算法的开放性问题。然而,对于具有任意实系数的一层 ReLU 网络的 PAC 学习问题,则证明了一个统计查询下界,说明其难以在多项式时间内得到解决。
Jun, 2020
本研究提出了有效学习基于 ReLU 的常深度网络的算法,该算法运用了核方法、多项式逼近和凸优化的 “双损失” 方法,同时获得了解决 “凸分段线性拟合” 和 “在单位球上低权重多项式的噪音重构” 等其他应用。
Nov, 2016
使用一种称为过滤式 PCA 的新工具来解决学习具有 ReLu 激活函数的神经网络的问题,该算法可以快速,并且不需要权重具有良好的条件或正系数的假设。
Sep, 2020
本研究基于黑盒访问网络,提出第一个多项式时间算法以学习任意单隐藏层神经网络激活函数,并在高斯测量意义下实现对原神经网络的低二次误差,即使在最坏情况网络下,算法仍保证良好的效率。
Nov, 2021
本文研究采用梯度下降算法学习双层神经网络,证明其具有多项式样本和多项式时间复杂度,且可以学习到真实网络,而任何具有多项式样本的核方法均具有 Omega 误差下限。
Jul, 2020
提出了一种基于 Lipschitz 的单隐层神经网络的多项式时间学习算法,使用了 Alphatron 算法和核方法,这为布尔学习问题提供了新的方法。
Sep, 2017