循环神经切向核
本文研究了有限宽度的深度全连接神经网络中神经切向核的动态,并推导出一个无穷层次的普通微分方程组,它捕捉了深层神经网络的梯度下降动态。此外,在条件限制下,研究证明了 NTH 的截断层次近似于 NTK 的动态。这些描述使直接研究深度神经网络的 NTK 的变化成为可能,同时也揭示了深度神经网络胜过相应极限 NTK 的内在原因。
Sep, 2019
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
Jul, 2020
本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
本文通过缩放定律的角度研究神经切向核 (NTK) 及其经验性变量,发现它们无法完全解释神经网络泛化的重要方面。通过实际设置,我们展示了有限宽度神经网络相对于其对应的经验和无穷 NTK 起始时具有显着更好的数据缩放指数,并证明了 NTK 方法在理解自然数据集上真实网络泛化的局限性。
Jun, 2022
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
本文研究了深度与宽度相当的全连接 ReLU 网络的神经切向核(Neural Tangent Kernel)及其性质,发现其性质取决于深度与宽度之比以及初始状态下参数分布的情况。结果表明,在超参数空间中,有序、混沌和混沌边缘三个阶段很重要。在混沌和混沌边缘阶段,NTK 可变性随着深度呈指数增长,但在有序阶段则不会,此外还展示了深度神经网络的 NTK 只有在有序阶段中才能在训练过程中保持恒定,并探讨了 NTK 矩阵在训练过程中的结构变化。
Feb, 2022
该论文介绍了一种名为 Unified Neural Kernel (UNK) 的方法,用于描述神经网络的学习动态以及参数初始化。通过渐进学习步骤,UNK 核的行为呈现类似于 Neural Tangent Kernel (NTK),而随着学习步骤接近无穷大,其收敛于 Neural Network Gaussian Process (NNGP)。此外,论文还对 UNK 核的均匀紧密性和学习收敛性进行了理论表征,并通过实验证明了该方法的有效性。
Mar, 2024
该研究表明:(a) 在无穷宽度神经网络 (NNs) 上应用 l2 损失 (通过梯度下降法) 训练,并将学习率设置为无穷小,与 (b) 基于所谓的神经切向核 (NTK) 的核回归是相等的。在此基础上,对 NTK 进行高效计算的算法已被提出,表明 NTK 在低数据任务上表现良好。
Oct, 2019
通过使用具有随机初始化的无限宽度深度网络集合的马尔可夫接近学习模型,结合数值评估来合并和统一神经切向核(NTK)和神经网络高斯过程(NNGP)理论,并提供对机器学习中深度神经网络学习过程的全面理解。
Sep, 2023
通过 Tensor Programs 技术在 Tensor Program 中分析的 SGD 动态,我们证明了使用 NTK 参数化的相同神经网络在训练期间遵循功能空间中的内核梯度下降动态,其中内核是无穷宽度 NTK,从而完整证明了 NTK 行为的结构普适性。
May, 2021