使用浅层神经网络学习单指数模型
通过研究在浅层神经网络中使用梯度下降方法的稀疏高维函数,展示了它们在线性模型之外进行特征学习的能力。本研究扩展了这一框架,探索了高斯设置以外的情景,并通过假设在高维情形下可以有效地恢复未知方向。
Jul, 2023
在对称神经网络的设置下,通过对激活函数进行分析和对连接函数进行最大度数的假设,我们证明了梯度流可以恢复隐藏的预设方向,该方向在幂和多项式特征空间中表示为一个有限支持的向量,并刻画了适应我们设置的信息指数概念来控制学习的效率。
Oct, 2023
单指标模型是高维回归问题,根据未知的一维投影通过非线性、潜在非确定性的变换,标签与输入相关,涵盖了广泛的统计推断任务,提供了在高维领域研究统计和计算权衡的丰富模版。我们证明了在统计查询(SQ)和低次多项式(LDP)框架内计算高效算法所需的样本复杂度最低为 Ω(d^k/2),其中 k 是与模型关联的 “生成” 指数,我们明确定义了这个指数。此外,通过使用部分跟踪算法建立的匹配上界证明了这个样本复杂度也是充分的。因此,我们的结果表明,在 SQ 和 LDP 类中,只要 k>2,计算与统计之间存在明显的差距。为了完成这个研究,我们提供了具有任意大生成指数 k 的平滑和 Lipschitz 确定的目标函数的示例。
Mar, 2024
该研究探讨了在初始状态下存在许多平坦方向时,双层神经网络在随机梯度下降下学习单目标函数的样本复杂性,发现过度参数化只能增强收敛,而不能提高在这个问题类中的常数因子,这些发现是基于将随机梯度下降动态降维到更低维度的随机过程。
May, 2023
通过对高维高斯数据的多指数回归问题进行梯度流研究,我们提出了一种两时间尺度算法,该算法以非参数模型学习低维关联函数,实现了全局收敛性,并给出了与其关联的 “鞍点到鞍点” 动力学的定量描述。
Oct, 2023
学习性能的理论边界是该研究论文的重点,特别关注使用一阶迭代算法弱恢复低维结构所需的最小样本复杂度,在样本数量与协变量维度成正比的高维情况下,通过非线性变换来研究神经网络的特征学习,探讨多指数模型的各种算法、计算相变以及近似传递信息算法的最优性。
May, 2024
该研究通过严格定义和深入探究神经网络的简单性偏差,理论上和经验上均证明在解决任务时只学习低维度输入的特征,不依赖于更复杂的特征,同时提出一种基于特征的训练顺序的集成方法,能够使得模型对高斯噪声具有更强的鲁棒性。
Feb, 2023
神经网络通过高维嘈杂的数据识别低维相关结构,我们对其工作原理的数学理解仍然有限。本文研究了使用基于梯度的算法训练的两层浅层神经网络的训练动态,并讨论了它们在具有低维相关方向的多指标模型中学习相关特征的方式。
May, 2024
研究浅层神经网络在过参数化情况下,如何使用二次激活函数进行训练并找到全局最优解,结果表明此方法适用于具有任意输入 / 输出对的任何训练数据,并可使用各种本地搜索启发式方法高效地找到全局最优解。同时,对於差分激活函数,我们也证明了梯度下降法在得到合适的初值后可以以线性速度收敛到全局最优解,它的输入来自符合高斯分布的选定属性且标记是通过种植的重量系数生成的。
Jul, 2017