等变神经切向核
神经切向核、对齐、图神经网络、图移位算子和交叉协方差是本研究的关键词,该论文的主要内容是分析过度参数化神经网络的学习和泛化行为的理论机制,以及在图神经网络中优化对齐对图表示和图移位算子的重要性,并通过实验证明使用交叉协方差作为图移位算子的图神经网络在多变量时间序列预测任务中优于仅使用输入数据协方差矩阵的网络。
Oct, 2023
本研究证明了在梯度下降算法中,人工神经网络的演化可以被表示为一种核函数,称为神经切向核。它在无限宽度下收敛于一个明确的极限核,并且在训练过程中保持不变,可以用函数空间而不是参数空间来研究人工神经网络的训练。我们关注最小二乘回归并表明,在无限宽度下,网络函数 $f_ heta$ 在训练期间遵循线性微分方程。最后,我们对神经切向核进行了数值研究,观察了其在宽网络中的行为,并将其与无限宽度的极限进行了比较。
Jun, 2018
本文研究了有关深度学习的两个问题:对抗攻击与深度学习的泛化能力。以 Neural Tangent Kernel(NTK)为主要理论,探究有限宽度下的 kernel learning 与 lazy training,结果表明标准训练与对抗训练会有不同的 NTK,最终可以得到一个在 CIFAR-10 数据集上具有 76.1% 鲁棒性的分类器。
Oct, 2022
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
Jul, 2020
该研究表明:(a) 在无穷宽度神经网络 (NNs) 上应用 l2 损失 (通过梯度下降法) 训练,并将学习率设置为无穷小,与 (b) 基于所谓的神经切向核 (NTK) 的核回归是相等的。在此基础上,对 NTK 进行高效计算的算法已被提出,表明 NTK 在低数据任务上表现良好。
Oct, 2019
本研究论文探讨卷积神经网络在对称群中的应用,提出了群等变神经网络的概念和架构,以及使用多种层和滤波器的方法,为对称群的表示和胶囊的细节做出了数学分析。
Jan, 2023
通过研究神经网络和内核空间中的简单构建块之间的联系,我们提出了一种从特征组中创建 “组合” 内核的代数。在实验中,我们发现神经网络体系结构和相关内核的测试误差之间存在相关性,并构建了一个只使用 3x3 卷积、2x2 平均池化、ReLU 并使用 SGD 和 MSE 损失进行优化的简单神经网络体系结构,在 CIFAR10 数据集上获得 96%的准确度,其对应的组合内核可达到 90%的准确度。我们还使用我们的构造方法研究了神经网络、NTK 和组合内核在小数据集环境中的相对性能表现,特别是发现组合内核优于 NTK,神经网络优于这两种内核方法。
Mar, 2020
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
本研究提出了基于 Label-Gradient Alignment(LGA)的新型 NTK 度量方法,通过少量训练,LGA 能够可靠且准确地估计神经结构的性能,并能指导现有的搜索算法以更小的搜索成本实现具有竞争性的搜索性能。
Mar, 2022