线性卷积网络的函数空间和临界点
通过引入递归算法,我们生成多项式方程,其共同零点对应于相应神经多丘道的 Zariski 闭包。此外,我们还利用度量代数几何的工具来研究训练这些网络的代数复杂度。我们的研究发现,此类网络的优化中的所有复杂临界点的数量等于 Segre 多样性的一般欧几里得距离度。值得注意的是,这个数量显著超过了具有相同参数数量的全连接线性网络的训练中遇到的关键点数量。
Jan, 2024
本文研究神经网络的损失函数,通过对其函数空间和权重参数化的几何性质进行自然区分,提出了纯关键点和虚假关键点的概念,并应用于线性神经网络的损失函数。通过利用行列式变量的几何属性,得到了不同损失函数和不同参数化的线性网络的新结果。发现如果网络能够表达所有的线性映射,则其损失函数的地形中不存在坏的局部极小值点;否则,只有当网络的功能空间是行列式变量集时,此时二次损失才不存在坏的局部极小值点。
Oct, 2019
通过对标准 2D 多通道卷积层所关联的线性变换的奇异值的表征,我们能够有效计算它们。此表征还引导我们提出了将卷积层投影到算子范数球上的算法。我们证明了这是一种有效的正则化方法;例如,它将使用 CIFAR-10 数据集和批标准化的深度残差网络的测试误差从 6.2% 提高到 5.3%。
May, 2018
本研究提供了正方形损失函数的所有临界点(以及全局优化器)的解析形式的全面(必要和充分)表征,展示了实现全球最小值的必要和充分条件,并通过极小值的分析形式表征了神经网络的损失函数的景观特性。
Oct, 2017
线性神经网络中的权重向量对应的纤维是一个代数多样体,称为纤维,具有层次结构的代数多样体,称为等级分层,每种模式由分层所代表,纤维的拓扑取决于权重向量的分解,以及其几何形状。
Apr, 2024
本文提出了使用正交基函数 Zernike 多项式在二维流形上扩展卷积神经网络的新方法,用于对几何特征进行编码和数学量化,并实现了 CNN 基本构建块的数学推广。
Dec, 2018
本文讨论卷积神经网络的稳定性,以及基于 Lipschitz 性质的特征提取和分类方法,计算了 Lipschitz 边界并将其值与其他方法进行了比较,验证了 Lipschitz 边界计算方法的优越性。
Jan, 2017
本文研究了机器学习模型分析中的关键问题,即如何确定适当的函数空间和模型的范数,针对两种典型的神经网络模型(即双层网络和残差神经网络),提出了 Barron 空间和流引导函数空间,并证明了这些空间下的函数具有最优的直接和反向逼近定理,同时表明这些范数下的有界集的 Rademacher 复杂度具有最优的上界。
Jun, 2019