深度神经网络中出现的随机矩阵。高斯情况
研究随机矩阵的乘积,证明其对于任意固定向量的 2 范数的对数渐近于高斯分布,并将其应用于测量深度神经网络的激活函数 ReLU 下的梯度稳定性问题。
Dec, 2018
本文是一篇介绍随机矩阵理论基本的非渐近方法和概念的教程,其中涵盖了许多在理论计算机科学、统计学和信号处理等领域的应用,尤其对于统计学中的协方差矩阵估计问题和压缩感知的概率构造测量矩阵的验证有基本应用。
Nov, 2010
研究 Gram 随机矩阵模型,证明当 $n,p,T$ 同时增长时,具有相似行为与样本协方差矩阵模型,应用于单层随机神经网络的渐进性能估计,提供了对随机神经网络基础机制的实际见解,并快速调整网络超参数。
Feb, 2017
本文介绍了一种使用概率分布的随机矩阵来管理参数的变分贝叶斯神经网络,并使用矩阵变量高斯参数后验分布来明确建模每个层的输入和输出维度之间的协方差。此外,使用近似协方差矩阵,可以实现比完全分解更高效且更便宜的表示,同时无需损失模型性能。通过引入 “局部重参数化技巧”,可以将此后验分布转换为高斯过程,从而为每个层的隐藏单元提供解释,与深度高斯过程建立联系,并结合伪数据提高了模型采样效率。实验表明所提出的方法的有效性。
Mar, 2016
用随机矩阵理论和自由概率的基本工具简要推导了多种高维岭回归模型的训练和泛化性能,在物理学和深度学习背景的读者中提供了这些主题的介绍和评论。通过自由概率的 $S$ 变换特性,从代数的几行直接获得训练和泛化误差的解析公式,能够直观地识别模型性能的幂律缩放来源。计算了广义类随机特征模型的泛化误差,发现在所有模型中,$S$ 变换对应于训练 - 测试泛化差距,并提供了广义交叉验证估计器的类比。利用这些技术,对具有结构化协变量的非常通用的随机特征模型得到了细粒度的偏差 - 方差分解。这些新颖结果使我们能够发现随机特征模型的缩放区域,在超参数设置中特征的方差限制了性能。我们还演示了随机特征模型中异向权重结构如何限制性能,并导致超参数设置中有限宽度修正的非平凡指数。我们的结果扩展并提供了对早期神经缩放定律模型的统一视角。
May, 2024
通过理论和实验证明,深度生成对抗网络产生的数据的 DL 表示是集中随机向量类中的随机向量。同时,Gram 矩阵能够描述 GAN 数据的 DL 表示的前两个统计矩,并可用于多种标准分类器。
Jan, 2020
基于无限宽度神经网络的高斯过程,并结合内核和推理方法,构建了一个场论的形式体系,研究了无限宽度网络的泛化性质,并从输入数据的统计性质得到了泛化性质的提取。
Jul, 2023
本文研究大型矩形随机矩阵的有限低秩扰动的奇异值和奇异向量,证明了极值奇异值和相应奇异向量投影的近乎必然收敛性,并且在自由概率论中通过积分变换线性化了矩形加性卷积,揭示了非随机极限值明确取决于未受扰动矩阵的奇异值分布,我们研究了奇异值相变对相关左右奇异向量的影响,并且讨论了超过这些非随机限制的有限 $n$ 波动的后果。
Mar, 2011
在高维统计推断中,通过分析核随机矩阵的谱,发现在某些模型情况下,非线性主成分分析的问题本质上是线性问题,这与现有的一些启发式方法不符。同时,该研究还凸显了随机矩阵理论中广泛研究的某些奇异性,并对其在实际高维数据建模工具中的相关性提出了一些问题。
Jan, 2010