多层随机特征和神经网络的逼近能力
在某种随机梯度下降初始化的情况下,神经网络可被再现核希尔伯特空间方法良好逼近用于某些分类任务。在特殊情况下,通过学习最佳低维表示,神经网络可胜过再现核希尔伯特空间方法,证明了神经网络比再现核希尔伯特空间方法更适合维度严重受限的特殊分类任务。
Jun, 2020
本论文研究了在球面上进行方差损失下的未知函数 f * 的学习问题,并研究了神经切向核模型和 Rahimi-Recht 的随机特征模型等两种流行的模型,以及核岭回归。同时,论文探讨了样本数量有限或由于关于度数和样本数的适当估计而未能实现最优化性能时的情况,以及核方法随机选取核函数时的情况。
Apr, 2019
本文研究了随机初始化的宽神经网络能否通过高斯过程来近似。我们在一个无限维函数空间中建立明确的收敛速率,说明了两种不同的情况:同时激活函数的次数和函数的平滑度会决定高斯过程的收敛速度。
Feb, 2021
通过使用神经网络来近似再生核希尔伯特空间中的泛函的普适性,以及将其应用于广义函数线性模型的函数回归,本研究探讨了将功能性数据(如时间序列和图像)整合到神经网络中学习函数空间到 R 的映射(即泛函)的方法。同时,通过在再生核希尔伯特空间中建立内插正交投影,提出的网络简化了现有的功能学习工作,使用点评估替代基函数展开。
Mar, 2024
通过 Barron 定理,我们证明了一组满足某些 Fourier 条件的函数的组合可以通过一个多达 $n+1$ 层的神经网络来逼近,为深度神经网络的表达能力提供了解释。英文原文主要探讨了神经网络的一些基本性质以及其在生成模型领域的应用,建议阅读原文以获取更多细节。
Feb, 2017
利用动态再生核赋范空间方法研究神经网络的逼近和表示优势,证明其自适应核函数表示比经典非参数方法中的预先指定的固定基础表示更具优势,同时通过渐进正则化说明其渐进收敛性。
Jan, 2019
本文研究 Bayesian 神经网络,使用 Monte-Carlo NNGP 推断方法得到 NNGP 性能,探讨其在神经架构搜索中的应用,发现 NNGP 性能具有成本低廉、独立于训练度量且可以用于缩小大搜索空间或提高基于训练的性能度量的优点。
Nov, 2020
这篇论文提出了两种适用于任意宽度、深度和拓扑结构的神经网络的模型及其训练方法,假设神经激活仅存在有限能量,并提出了一种基于矩阵核的神经网络的新颖表达器理论。其中,第一种模型是精确的且全局的模型,将神经网络看作是再生核 Banach 空间中的元素;第二种模型是精确的且局部的模型,将神经网络函数的变化建模为权重和偏差(即训练步骤)在再生核 Hilbert 空间中的局部内在神经核。该局部模型通过对网络自适应的 Rademacher 复杂度提供洞察力。此外,还证明了神经切向核 (NTK) 是局部内在神经核的一阶近似。最后,针对技术原因,本论文提出了一个准确的新颖表达器理论,用于层间神经网络在未正则化梯度下降的情况下进行训练,该理论基于局部外在神经核 (LeNK)。该表达器理论揭示了神经网络训练中高阶统计量的作用以及核演化对神经网络核模型的影响。在整篇论文中,使用前馈 ReLU 网络和残差网络 (ResNet) 作为说明性例子。
May, 2024
本文探讨了深度神经网络的函数空间和复杂度测量方面的问题,将一个多层神经网络看作是一种特定层次的再生核希尔伯特空间,并研究了它的理论性质和推论。
Jul, 2023