线性宽度神经网络的共轭核和神经切向核的频谱
本文从谱的角度研究共轭内核(Conjugate Kernel,CK)和神经切向内核(Neural Tangent Kernel,NTK)的特性,分析它们的特征值,得出关于神经网络的初始化分布和训练、泛化特性等问题的新见解,并通过广泛的神经网络实验验证这些见解。
Jul, 2019
我们研究了线性特征映射非线性版本的尖峰协方差模型,包括共轭核作为特例,并描述了在具有随机权重的神经网络的隐藏层中输入数据的尖峰特征值和特征向量的传播方式。在第二个应用中,我们研究了一种简单的表示学习模式,其中权重矩阵在训练过程中发展出一个秩为一的信号成分,并描述了目标函数与测试数据上的共轭核的尖峰特征向量之间的对齐。
Feb, 2024
本文通过对神经切向核的分析,提供深度 ReLU 网络 NTK 矩阵的最小特征值的紧密界限,考虑了有限和无限宽度的极端情况,研究了神经网络的内部特征矩阵的最小奇异值和输入输出特征映射的 Lipschitz 常数的上界。
Dec, 2020
本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
神经切向核、对齐、图神经网络、图移位算子和交叉协方差是本研究的关键词,该论文的主要内容是分析过度参数化神经网络的学习和泛化行为的理论机制,以及在图神经网络中优化对齐对图表示和图移位算子的重要性,并通过实验证明使用交叉协方差作为图移位算子的图神经网络在多变量时间序列预测任务中优于仅使用输入数据协方差矩阵的网络。
Oct, 2023
通过研究神经切线核在代替有限宽度深度神经网络中的性能表现,揭示了核的正则性是性能的关键决定因素,从而提出了一种廉价改进深度神经网络准确性的方法。这一理论框架不仅为使用共轭核代替神经切线核提供了理论基础,而且揭示了不同近似方法的稳健性,为提高深度神经网络的准确性提供了建议。
Oct, 2023
本文研究了深度与宽度相当的全连接 ReLU 网络的神经切向核(Neural Tangent Kernel)及其性质,发现其性质取决于深度与宽度之比以及初始状态下参数分布的情况。结果表明,在超参数空间中,有序、混沌和混沌边缘三个阶段很重要。在混沌和混沌边缘阶段,NTK 可变性随着深度呈指数增长,但在有序阶段则不会,此外还展示了深度神经网络的 NTK 只有在有序阶段中才能在训练过程中保持恒定,并探讨了 NTK 矩阵在训练过程中的结构变化。
Feb, 2022
本文讨论了 DNN 在梯度下降过程中的动态,并根据所谓的神经切向核(NTK)揭示了 DNN 代价函数海森矩阵的精确洞察力。我们证明,当 NTK 在训练过程中保持不变时,我们可以获得代价函数海森矩阵的渐近谱的完整特征描述。在所谓的平均场极限中,NTK 在训练过程中不固定,我们描述了代价函数海森矩阵的初始化时的前两个矩。
Oct, 2019