神经频谱对齐:实证研究
通过高斯过程和统计物理学的理论方法,我们得到了内核回归广义性能的分析表达式,这些表达式是关于训练样本数量的函数。我们的结果适用于具有广泛神经网络的情况,这是由于训练它们和使用神经切向核 (NTK) 的核回归之间的等效性。通过计算核的不同谱成分对总体泛化误差的分解,我们确定了一个新的谱原理:随着训练集大小的增长,核机和神经网络逐渐适应目标功能的更高频谱模式。当数据从高维超球面上的均匀分布中采样时,点积核,包括 NTK,显示出学习阶段,其中学习不同频率模式的目标函数。通过对合成数据和 MNIST 数据集的模拟,我们验证了我们的理论。
Feb, 2020
本文使用神经切向核(NTK)模型研究变量密度对训练动态的影响,结果表明在学习频率为 k 的纯谐波函数时,对于数据在 S^1 上,收敛点 x 的时间复杂度为 O (k^d/p (x)),其中 p (x) 表示 x 处的局部密度。
Mar, 2020
本文从谱的角度研究共轭内核(Conjugate Kernel,CK)和神经切向内核(Neural Tangent Kernel,NTK)的特性,分析它们的特征值,得出关于神经网络的初始化分布和训练、泛化特性等问题的新见解,并通过广泛的神经网络实验验证这些见解。
Jul, 2019
通过使用具有随机初始化的无限宽度深度网络集合的马尔可夫接近学习模型,结合数值评估来合并和统一神经切向核(NTK)和神经网络高斯过程(NNGP)理论,并提供对机器学习中深度神经网络学习过程的全面理解。
Sep, 2023
神经切向核、对齐、图神经网络、图移位算子和交叉协方差是本研究的关键词,该论文的主要内容是分析过度参数化神经网络的学习和泛化行为的理论机制,以及在图神经网络中优化对齐对图表示和图移位算子的重要性,并通过实验证明使用交叉协方差作为图移位算子的图神经网络在多变量时间序列预测任务中优于仅使用输入数据协方差矩阵的网络。
Oct, 2023
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
Jul, 2020
本文通过缩放定律的角度研究神经切向核 (NTK) 及其经验性变量,发现它们无法完全解释神经网络泛化的重要方面。通过实际设置,我们展示了有限宽度神经网络相对于其对应的经验和无穷 NTK 起始时具有显着更好的数据缩放指数,并证明了 NTK 方法在理解自然数据集上真实网络泛化的局限性。
Jun, 2022
在深度神经网络训练中,训练动力学与损失面的几何形态和时空变化紧密关联,揭示了深度学习过程中快速的混沌瞬变和稳定状态之间的显著关系。
Oct, 2020
本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
本篇论文研究神经网络在通过渐变流优化均方误差时在函数空间中的动态学习,证明了在参数不足的情况下,网络以特定的速率学习由神经切向核(NTK)决定的积分算子 T_K^∞的特征函数,从而展现了在参数不足的情况下的光谱偏置。
Jan, 2022