神经希尔伯特梯级:函数空间内的多层神经网络
神经网络架构、随机初始化权重、神经网络高斯过程核、再生核希尔伯特空间、逼近误差是该研究论文的关键词,论文提出了一种在无限宽度限制下具有随机初始化权重的神经网络架构,它等价于一个具有高斯随机场协方差函数的神经网络高斯过程核,同时证明了该神经网络架构可以逼近由该核定义的再生核希尔伯特空间中的函数。实验结果验证了该理论发现的可行性。
Apr, 2024
通过使用神经网络来近似再生核希尔伯特空间中的泛函的普适性,以及将其应用于广义函数线性模型的函数回归,本研究探讨了将功能性数据(如时间序列和图像)整合到神经网络中学习函数空间到 R 的映射(即泛函)的方法。同时,通过在再生核希尔伯特空间中建立内插正交投影,提出的网络简化了现有的功能学习工作,使用点评估替代基函数展开。
Mar, 2024
本文提出了适用于 ReLU 神经网络的 Banach 空间,其中包含了所有有限全连接 L 层网络及其 L^2 - 极限对象,具有低的 Rademacher 复杂性和良好的泛化特性,函数可以通过多层神经网络进行近似,收敛速率与维度无关。
Jul, 2020
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs),通过将 DNN 视为两个变量的函数,即物理变量和参数变量,并考虑 DNN 的原始集合,这些集合位于由 DNN 的深度和宽度确定的权重矩阵和偏差的集合,然后通过在弱 * 拓扑中完成原始 DNN 集合的线性张量构建物理变量的函数的 Banach 空间,我们证明了所构建的 Banach 空间是一个再生内核 Banach 空间(RKBS),并构建了其再生内核。我们通过建立学习模型的 representer 定理,研究了结果 RKBS 中的正则化学习和最小插值问题,representer 定理表明这些学习模型的解可以表示为给定数据和再生内核确定的有限数量的内核会话的线性组合。
Mar, 2024
通过研究神经网络所定义的函数空间,我们展示了深度神经网络定义合适的再生核 Banach 空间,并且通过应用再生核 Banach 空间的理论和变分结果,得到了支持常用有限网络结构的再现定理,为更实际可行的神经网络架构提供了一步。
Mar, 2024
在某种随机梯度下降初始化的情况下,神经网络可被再现核希尔伯特空间方法良好逼近用于某些分类任务。在特殊情况下,通过学习最佳低维表示,神经网络可胜过再现核希尔伯特空间方法,证明了神经网络比再现核希尔伯特空间方法更适合维度严重受限的特殊分类任务。
Jun, 2020
本文主要研究了定义在概率度量上的神经网络的学习和表示,通过研究不同正则化选择下的近似和泛化界限,建立了一个具有不同非线性学习程度的功能空间等级体系,从而解决了对称函数的泛化问题。
Aug, 2020
引入一种基于 H 矩阵结构的新多尺度人工神经网络,可将其推广到非线性情况,并且能够高效逼近非线性薛定谔方程和 Kohn-Sham 密度泛函理论等离散非线性映射。
Jul, 2018