通过对具有 ReLU 激活函数的一层神经网络的分析,我们发现神经网络具有良好的优化特性,其具有多样的单元没有虚假局部最小值,在满足 “扩展特征矩阵” 的最小奇异值足够大的条件下,可以使损失函数变得任意小。
Nov, 2016
本研究通过凸优化理论分析发现,ReLU 神经网络通过一种隐含的正则化机制实现高维特征选择,并证明了该等价凸问题可以通过标准凸优化求解器在多项式时间内全局优化。
Oct, 2021
本文中,我们利用半无限对偶及最小规范化,将使用修正线性单元的两层神经网络的训练准确表述为单一凸程序,其变量数量与训练样本数量和隐藏层神经元数量呈多项式关系,并证明使用标准权重衰减进行修正线性单元网络训练的等效于带块 $l_1$ 惩罚的凸模型。此外,我们还证明了某些标准卷积线性网络等效于半定程序,可以在多项式大小的离散傅里叶特征空间中简化为带 $l_1$ 正则化的线性模型。
Feb, 2020
本文研究基于凸性的神经网络架构和其对泛化能力和过度拟合的影响,限制权重为非负并使用非递减凸激活函数可以让神经网络自我正则化,克服过度拟合问题,提高性能在图像分类方面的实验表明了这种方法的有效性。
Jun, 2020
本文研究正则化深度神经网络及其隐层结构,通过凸分析框架构建问题的最优隐层权重,证明 For 深度 ReLU 网络,权重矩阵与之前的层通过对偶对齐,并给出了数据为基态或白话时的权重的解析解。同时,该研究也可以甚至适用于具有批归一化架构的深度神经网络,并给出了 “神经坍塌” 现象的完整解释。
本文研究神经网络的理论解释,针对单个隐藏层、平滑激活函数和良好输入分布条件下生成的数据可否进行有效学习,证明了对于广泛的激活函数和任何对数凹分布的输入,存在一类单隐藏层函数,其输出为和门,难以以任何精度有效地学习,这一下界对权重的微小扰动具有鲁棒性,且通过实验验证了训练误差的相变现象。
Jul, 2017
研究神经网络的优化问题,发现常见的损失函数在实现空间上是凸的,通过使用神经网络的近似能力来处理非凸性问题,利用 Sobolev norm 来建立一种限制的参数化空间来实现反稳定性,并证明在受限制的参数化空间内优化仍然可以学习任何可通过无限制优化学习的函数。
May, 2019
该研究论文提出了一个基于目录网络的框架,证明了神经网络可以克服高维近似问题中的维数灾难,特别是通过修正线性单元类型的网络,实现了更高效的逼近效果,从而解决了该问题。
Dec, 2019
通过使用凸优化理论和稀疏恢复模型来改进神经网络的训练过程,并对其最优权重提供更好的解释,我们的研究侧重于以分段线性激活函数构建的两层神经网络的训练,证明了这些网络可以表达为一个有限维的凸规划问题,其中包括促使稀疏性的正则化项,构成 Lasso 的变种。通过大量的数值实验,我们展示了凸模型可以胜过传统非凸方法,并且对于优化器的超参数并不敏感。
Dec, 2023
本文发现使用修正线性单元(ReLU)激活的深度神经网络(DNNs)可以近似表示一类高维连续函数,其参数数量与输入维度和近似误差的多项式规模相同,该类函数由多个特殊函数的组合表示,包括乘积,最大值和某些并行的 Lipschitz 连续函数。
Apr, 2023