分段线性神经网络的近乎紧凑 VC 维度和伪维度限制
本研究解决了深度神经网络导函数的最优 Vapnik-Chervonenkis 维度(VC-dimension)和伪维度估计的问题,并将其应用于机器学习方法中涉及函数导数的损失函数的学习误差估计,从而填补了包括物理为基础的机器学习模型和应用程序(例如生成模型、解决偏微分方程、操作学习、网络压缩、提取、正则化等)的学习误差估计的空白。
May, 2023
研究了在 $L^2$ 意义下逼近分类器函数所需的 ReLU 神经网络的深度和权重数量,构造了一类具有固定层数的人工神经网络,使用 ReLU 激活函数逼近可允许不连续的分段 $C^β$ 函数,权重数量为 $O (ε^{-(2 (d-1))/β})$,并证明这是最优的。此外,为了实现最优逼近率,需要具有一定深度的 ReLU 网络。最后,分析了在高维空间中使用特征映射和分类器函数逼近的情况。
Sep, 2017
本文主要研究具有 ReLU 激活和有限宽度的神经网络的深度表达能力,重点探讨了通过这种网络对连续函数进行逼近的最小宽度和所需深度的问题,最终得出了使用宽度为 $d+3$ 的 ReLU 网络可以以任意精度逼近 $d$ 维空间上的任意标量连续函数的深度估计结论。
Aug, 2017
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
本文提出了一种拓展通用图神经网络(GNNs)的 VC 维度分析方法,研究了 GNNs 中常用的激活函数,如 sigmoid 和双曲正切函数,通过 Pfaffian 函数理论框架给出了与架构参数和 1-WL 测试结果相关的界限,理论分析得到了初步实验研究的支持。
Jan, 2024
研究一维 Lipschitz 函数的逼近中,深层 ReLU 网络比浅层网络更有效地逼近光滑函数,采用自适应深度 6 网络体系结构比标准浅层网络更有效。
Oct, 2016
研究神经网络单隐层的一般化性能,使用非欧几里得正则化工具,证明了它们适应未知的线性结构,而使用稀疏感应规范则可以实现高维非线性变量选择,提供了简单的几何解释,并提供了一些凸松弛的简单条件来实现相同的一般化误差界限,留下存在或不存在多项式时间算法的问题。
Dec, 2014
本文研究了使用 ReLU 激活的浅层和深层人工神经网络的高维逼近能力,并且证明了使用深层 ReLU 人工神经网络可以解决简单逼近问题,而不能在多项式时间复杂度下使用浅层或不够深度的人工神经网络来解决。
Jan, 2023
证明了在满足条件的情况下,当用深度为 2 和深度为 3 的神经网络来近似一个在 [0,1]^d 上与 Lipschitz 目标函数的 constant 精度相等的分布时,存在指数级的差距。
Feb, 2024
研究了基于有限维立方体上通用的深度 ReLU 神经网络对于一般连续函数的逼近及其与函数连续性和网络权重总数的逼近速率关系,并确立了可行逼近速率的完整相图,包括两个不同的相位。
Feb, 2018