神经再生核泛函空间及深度网络的表示定理
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs),通过将 DNN 视为两个变量的函数,即物理变量和参数变量,并考虑 DNN 的原始集合,这些集合位于由 DNN 的深度和宽度确定的权重矩阵和偏差的集合,然后通过在弱 * 拓扑中完成原始 DNN 集合的线性张量构建物理变量的函数的 Banach 空间,我们证明了所构建的 Banach 空间是一个再生内核 Banach 空间(RKBS),并构建了其再生内核。我们通过建立学习模型的 representer 定理,研究了结果 RKBS 中的正则化学习和最小插值问题,representer 定理表明这些学习模型的解可以表示为给定数据和再生内核确定的有限数量的内核会话的线性组合。
Mar, 2024
本文提出了适用于 ReLU 神经网络的 Banach 空间,其中包含了所有有限全连接 L 层网络及其 L^2 - 极限对象,具有低的 Rademacher 复杂性和良好的泛化特性,函数可以通过多层神经网络进行近似,收敛速率与维度无关。
Jul, 2020
通过构建一类新的经过正则化操作与 $k$-plane 变换定义的 Banach 空间,并证明具有多元非线性的神经结构是这些 Banach 空间中学习问题解集的完全刻画,我们研究了一大类神经结构的变分最优性(具体而言指 Banach 空间的最优性)。这些最优的神经结构具有跳跃连接,与正交权重归一化和多索引模型紧密相关,这在神经网络领域引起了相当大的关注。此外,我们还展示了底层空间是再生核 Banach 空间和变分空间的特殊实例,并为神经网络在数据上学习的函数的正则性提供了新的理论动机,尤其是在具有多元非线性时,并提供了对实践中一些架构选择的新的理论动力。
Oct, 2023
通过在 Reproducing Kernel Banach Space(RKBS)中建立显式的代表定理,我们探讨了该 RKBS 中代表的性质,与正则化参数对于解决方案的稀疏性的关系,并证明了一些特定的 RKBS 具有解决稀疏学习问题的能力
May, 2023
使用内插技术从再生核希尔伯特空间理论中介绍和研究训练神经网络的理论,进而泛化到 Krein 空间,并展示了广泛使用的神经网络体系结构是再生核 Krein 空间的子集。通过多个复变量函数的理论概念,证明了著名的 Adamjan-Arov-Krein(AAK)定理的可计算多维推广,得到了一种新的神经网络类别,称为 Prolongation 神经网络(PNN)。证明指出利用多维 AAK 定理来获得 PNN,可以在噪声环境中获得优于内插方法和当前最先进方法的性能。在实践中提供了有用的应用示例。
Aug, 2023
本文提出了使用再生核 Banach 空间(RKBS)代替传统的再生核 Hilbert 空间(RKHS)来解决支持向量机问题,并介绍了傅里叶变换技术来在广义本地空间中引入再生性质,得到了一个具有特定再生核的再生核 Banach 空间,重述了支持向量机的优化问题和解,并举例说明了 Matérn 函数在此问题中的应用。
Sep, 2012
本文提供一种有限样本和无限样本再生核希尔伯特空间的(线性组合的)核函数连接的表现定理,将分析函数组成的机器学习算法的数学基础。同时,我们还展示了如何将连接的机器学习问题重构为神经网络,并说明了我们的表现定理适用于各种先进的深度学习方法。
Sep, 2017
本文研究重现核巴拿赫空间的建构,提出广义 Mercer 核来构建 p - 范数的 RKBS,导出支持向量机在 p - 范数的 RKBS 中的等效有限维最优化解,并说明某些特殊情况下的支持向量机等价于经典稀疏回归问题,为后续研究稀疏学习方法提供基础支持。
Dec, 2014
通过使用再生核希尔伯特空间的范数作为正则化深度神经网络的新视角来提高学习效果,并提出了一些新的有效的正则化策略,实验结果表明这种方法在小数据集或对抗鲁棒性较高的模型上都取得了很好的效果。
Sep, 2018