随机特征在理解神经网络中的能力和局限
本文探讨了二层 ReLU 神经网络梯度下降训练过程中的特征学习,研究了使用 XOR 函数生成的带标签二进制数据,对一定比例的训练标签的干扰具有影响。我们证明了线性分类器并不比随机猜测的效果更好,而使用梯度下降训练二层 ReLU 神经网络可以达到接近噪声率的泛化误差。我们提出了一种新的证明技术,证明了在初始化时,绝大多数神经元都具有随机特征的性质,与有用特征之间的相关性较弱,而梯度下降动态将这些弱随机特征 “放大” 为强有用特征。
Feb, 2022
研究了两层神经网络中过参数化对学生 - 教师框架的影响,发现只有当学生的隐藏层数量指数级大于输入维度时,才能达到完美的泛化。同时计算了其渐进的泛化误差。
Mar, 2023
该论文研究深度神经网络的性质和学习方式,发现在深层卷积神经网络中,固定大部分权重可以在性能表现上与训练所有权重相媲美,探讨了该性质在创建更强鲁棒性的表示方面的应用。
Feb, 2018
通过分析随机特征模型在高斯数据的一般监督学习问题中的泛化性能,我们建立了一个在输入维度上的两个主要控制参数:随机特征的数量 N 和训练集的大小 P,都以输入维度 D 为幂次关系的等效多项式模型。我们的结果证明了 N、P 和 D 之间的比例关系,并与数值实验结果定量一致,同时远离渐近极限 D→∞,其中至少一个介于 P/D^K 和 N/D^L 之间的参数保持有限。
Feb, 2024
本文研究了图神经网络的表达能力,发现其存在局限性。作者提出为每个节点添加随机特征,这样 GNN 就能够学习一些最优多项式时间近似算法,同时该方法方便与其他 GNN 模型结合使用。经实验证明,加入随机特征的 GNN 能够解决一些无法被传统的 GNN 模型解决的问题。
Feb, 2020
本研究提出了基于单元能力的复杂度度量,为两层 ReLU 网络提供了更紧密的泛化界限,这可能有助于解释神经网络过参数化的泛化改进现象。同时,我们还提出了一个匹配的 Rademacher 复杂性下限,该下限优于之前神经网络的容量下限。
May, 2018
该论文分析了一个简单的 2 层 ReLU 网络的训练和泛化,通过对相关内核的特性进行追踪,提出了更紧致的训练速度特征描述和网络大小无关的泛化界限以及对梯度下降训练的广泛平滑函数可学性的证明。
Jan, 2019