神经分类器无限宽度极限的一般理论探讨
通过对无限宽度极限进行实证研究,我们的结果表明:无限宽度极限理论不适用于实际的优化、不确定性量化和持续学习问题,进而对于无限宽度极限的实际相关性提出了质疑。
Sep, 2023
研究表明,标准和 NTK 参数化的神经网络不能学习特征,这对于预训练和转移学习至关重要。通过修改标准参数化,使用 Tensor Programs 技术,我们计算了神经网络的极限,并发现其表现优于 NTK 基线和有限宽网络。
Nov, 2020
通过实验证明了核方法优于限制宽度的全连接神经网络,并且证实 NNGP 内核经常优于 NT 内核,但它们的性能都受到正则化的影响。此外,作者提出了使用 NNGP 和 NT 内核进行预测的最佳实践方法,并在 CIFAR-10 分类任务中取得了最优结果。
Jul, 2020
本研究发展了多层神经网络的数学严格框架,探究其在平均场条件下的学习轨迹,并证明了一些神经网络的性质,包括全局收敛性和初始化的影响。其中的新概念包括概率嵌入和双向多样性。
Jan, 2020
本文提出了一种适用于深度神经网络的缩放极限的解决方案,其权重可由被描述为平均场模型的理想粒子近似表示,该问题的关键在于我们的 McKean-Vlasov 问题存在唯一解。
Jun, 2019
本文探讨利用随机梯度下降学习两层神经网络,将神经网络权重的演化近似为概率分布在 R^D 空间中的演化,从而得到概率分布的梯度流方程。我们分析了隐藏单元数量与数据规律性之间的相关性,扩展了此结果到无界激活函数的情况,将此结果应用到噪声随机梯度下降过程中,并展示了如何通过平均场分析特殊限制条件下的核岭回归。
Feb, 2019
本文研究了有限宽度的深度全连接神经网络中神经切向核的动态,并推导出一个无穷层次的普通微分方程组,它捕捉了深层神经网络的梯度下降动态。此外,在条件限制下,研究证明了 NTH 的截断层次近似于 NTK 的动态。这些描述使直接研究深度神经网络的 NTK 的变化成为可能,同时也揭示了深度神经网络胜过相应极限 NTK 的内在原因。
Sep, 2019
本篇研究开发了第一个高效精准计算卷积神经网络中神经切向核(NTK)扩展,即卷积 NTK(CNTK),并使用 GPU 实现,相较于其他方法在 CIFAR-10 上表现出明显优势,仅比与之对应的有限深度网络结构低 6%;同时,提供了第一个非渐近证明,表明当训练具有足够宽度的深度网络时,其与使用 NTK 的核回归预测器等效。
Apr, 2019
该论文针对深度学习的 Neural Tangent Kernel 极限和 Mean-Field 极限进行了研究,发现不同的调参可以使得网络在 lazy training 和 feature training 两种状态下表现不同,并提出了一种中间状态下集合平均方法可以提高性能。
Jun, 2019