本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
本文研究了有限宽度的深度全连接神经网络中神经切向核的动态,并推导出一个无穷层次的普通微分方程组,它捕捉了深层神经网络的梯度下降动态。此外,在条件限制下,研究证明了 NTH 的截断层次近似于 NTK 的动态。这些描述使直接研究深度神经网络的 NTK 的变化成为可能,同时也揭示了深度神经网络胜过相应极限 NTK 的内在原因。
Sep, 2019
通过它们各自的高斯过程和神经切向核,研究各种过度参数化的 CNN 架构的属性,并证明了这些核的特征值随着层级特征的组合而多项式地衰减
Mar, 2022
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
Jul, 2020
揭示了某些神经网络在宽度接近无穷大时,出现线性转换的显著现象,并通过 Hessian 矩阵的归一化来解释其原因。此外,还指出该现象并非宽神经网络的普遍特性。
Oct, 2020
本篇论文研究神经网络在通过渐变流优化均方误差时在函数空间中的动态学习,证明了在参数不足的情况下,网络以特定的速率学习由神经切向核(NTK)决定的积分算子 T_K^∞的特征函数,从而展现了在参数不足的情况下的光谱偏置。
Jan, 2022
本文介绍并研究了循环神经切线核(RNTK)的性能,证明其能够比其他内核提供更好的性能表现,尤其在处理不同长度输入的情况下表现良好。
Jun, 2020
深度学习模型参数通常大于所需,然而其测试误差在过拟合阈值附近有极值和下降,在过参数化区间反而下降,神经切向核模型可以提供有关真实神经网络的细节。
Aug, 2020
本文通过利用目标函数和 NTK 相关的函数空间的特殊属性,证明了平均随机梯度下降方法在 NTK 极限下能够取得最小极小化误差率,并利用 ReLU 网络的平滑逼近,使得可以在最优极小化误差率下学习 NTK 指定的目标函数。
宽神经网络的收敛速度和可达函数受到一定偏好,因此需要一种可以根据任务修改此偏好的方法。为此,我们介绍了修改光谱核 (MSKs),这是一种新型的构造核,可用于近似具有所需特征值的核函数,尽管没有已知的闭式形式。我们利用宽神经网络和神经切线核之间的对偶性,提出了一种预条件梯度下降方法,可以改变梯度下降的轨迹,从而实现多项式和 (在某些情况下) 指数级的训练加速,同时不改变最终解,我们的方法既计算高效又易于实施。
Jul, 2023