高维随机特征学习的普适性定律
本文研究无法可知函数的学习问题,主要贡献在于使用高斯数据对这种学习问题进行精确的渐近分析。在特征矩阵的温和正则条件下,本文提供了在低参数与高参数模式下渐近的训练和泛化误差的精确刻画。该分析适用于一般的特征矩阵、激活函数和凸损失函数家族。数值结果验证了我们的理论预测,表明我们的渐近发现与所考虑的学习问题的实际表现非常符合,即使在中等维度下也是如此。此外,它们揭示了正则化、损失函数和激活函数在学习中缓解 “双下降现象” 中所发挥的重要作用。
Aug, 2020
通过对等效模型的参数进行研究,本文通过优化非线性激活函数,实现了对给定监督学习问题的改善,验证了这些优化的非线性函数在回归和分类问题中比常用的非线性函数(如 ReLU 函数)具有更好的泛化性能,并且缓解了所谓的 “双峰下降” 现象。
Sep, 2023
使用统计物理学中的复制法,我们针对一个综合数据集,研究了广义线性回归和分类问题,在超参数化和不充分参数化的条件下,为这些问题提供了渐近泛化表现的闭式表达式,特别地,我们展示了逻辑回归的双重下降效应,突显了用正交投影相比随机高斯投影在学习随机特征时的优越性,讨论了隐藏流形模型中数据相关性的作用。
Feb, 2020
用随机矩阵理论和自由概率的基本工具简要推导了多种高维岭回归模型的训练和泛化性能,在物理学和深度学习背景的读者中提供了这些主题的介绍和评论。通过自由概率的 $S$ 变换特性,从代数的几行直接获得训练和泛化误差的解析公式,能够直观地识别模型性能的幂律缩放来源。计算了广义类随机特征模型的泛化误差,发现在所有模型中,$S$ 变换对应于训练 - 测试泛化差距,并提供了广义交叉验证估计器的类比。利用这些技术,对具有结构化协变量的非常通用的随机特征模型得到了细粒度的偏差 - 方差分解。这些新颖结果使我们能够发现随机特征模型的缩放区域,在超参数设置中特征的方差限制了性能。我们还演示了随机特征模型中异向权重结构如何限制性能,并导致超参数设置中有限宽度修正的非平凡指数。我们的结果扩展并提供了对早期神经缩放定律模型的统一视角。
May, 2024
我们提供了一种针对大类特征映射的紧密渐近特征错误的表征,其中输入维度、隐藏层宽度和训练样本数在高维极限下成比例增加。我们的工作部分是受到了学习具有高斯彩虹神经网络的问题的启发,即具有随机但结构化权重的深层非线性全连接网络,它们的行协方差进一步允许依赖于前层的权重。对于这样的网络,我们还推导了一种以权重矩阵为基础的特征协方差的闭合形式公式。我们进一步发现,在某些情况下,我们的结果能够捕捉到通过梯度下降训练的深度有限宽度神经网络学得的特征映射。
Feb, 2024
本研究探讨了统计学习框架下随机特征稀疏化岭回归的泛化性质,结果显示仅需 O(根号 n*log n)个随机特征即可实现 O(1 / 根号 n)的学习界限,优于之前的提法;此外我们证明了一系列快速学习速率及其潜在影响,研究证明了及格自适应分配随机特征的可行性,这有助于降低计算复杂度,并保持最优泛化特性。
Feb, 2016
神经网络架构、随机初始化权重、神经网络高斯过程核、再生核希尔伯特空间、逼近误差是该研究论文的关键词,论文提出了一种在无限宽度限制下具有随机初始化权重的神经网络架构,它等价于一个具有高斯随机场协方差函数的神经网络高斯过程核,同时证明了该神经网络架构可以逼近由该核定义的再生核希尔伯特空间中的函数。实验结果验证了该理论发现的可行性。
Apr, 2024
通过分析随机特征模型在高斯数据的一般监督学习问题中的泛化性能,我们建立了一个在输入维度上的两个主要控制参数:随机特征的数量 N 和训练集的大小 P,都以输入维度 D 为幂次关系的等效多项式模型。我们的结果证明了 N、P 和 D 之间的比例关系,并与数值实验结果定量一致,同时远离渐近极限 D→∞,其中至少一个介于 P/D^K 和 N/D^L 之间的参数保持有限。
Feb, 2024
通过通用学习的角度重新审视线性回归问题,研究了标签 y 和特征向量 x^T 的线性组合表达式及其学习可行性,证明在训练数据的相关矩阵特征向量构成的子空间上,即使参数个数 M 多于样本个数 N,线性回归也可以具有很好的推广性能。
May, 2019