通过傅里叶分析的工具,表明深度 ReLU 网络偏向于低频函数,且随数据流形复杂性的增加,学习高频函数变得更容易,但参数扰动会影响频率成分的鲁棒性和精确表达。
Jun, 2018
通过它们各自的高斯过程和神经切向核,研究各种过度参数化的 CNN 架构的属性,并证明了这些核的特征值随着层级特征的组合而多项式地衰减
Mar, 2022
本研究通过梯度混淆,对基于坐标的多层感知器(coordinate-based MLP)中的谱偏差进行了研究,发现当表现能力受限时混淆程度增加,导致其收敛速度变慢,同时也发现了谱偏差降低时激活区域的特性。
Jan, 2023
本文从谱的角度研究共轭内核(Conjugate Kernel,CK)和神经切向内核(Neural Tangent Kernel,NTK)的特性,分析它们的特征值,得出关于神经网络的初始化分布和训练、泛化特性等问题的新见解,并通过广泛的神经网络实验验证这些见解。
Jul, 2019
本文探讨了多项式神经网络在图像生成和人脸识别方面的有效性,还研究了神经网络具有低频函数方面的谱偏向性,发现多项式神经网络可以通过引入乘法交互项加速学习,提供了设计架构和学习框架的新洞察。
Feb, 2022
使用最新的理论框架,测试了大量预测视觉皮层活动的深度神经网络,并展示了多种几何特性导致通过回归测量的低神经预测误差,从而证明了仔细分解表征度量可以解释模型如何捕捉神经活动,并指导神经活动的改进模型。
Sep, 2023
机器学习中的光谱几何信息提取是一种基于传统特征值解算器的大量方法之一,而为了应用于在线大数据场景,研究人员提出了 Spectral Neural Network (SNN) 作为一种替代方法,本文探索了 SNN 的关键理论方面,包括神经元数量和光谱几何信息学习量之间的权衡以及 SNN 的优化过程。
Oct, 2023
利用自由概率理论,对深度网络输入 - 输出 Jacobian 谱的结构进行研究,探讨非线性、权值、偏置分布、深度等超参数对 Jacobian 谱的影响。我们发现,不同的非线性函数都符合一些新的普适极限谱分布,即使深度接近无穷,这些分布也可以牢固地集中于 1 附近,从而可以为深度网络的设计提供重要的指导。
Feb, 2018
研究表明,深度神经网络的学习偏差会在训练的后期阶段出现第二次下降,其高频分量也会因此减少,导致测试误差的第二次下降,而网络的频谱可以用于指示测试误差的第二次下降。
Apr, 2020
本研究探讨了神经网络学习函数的速度与频率之间的关系,发现在引入偏差项的情况下,浅层神经网络才能够学习和表示简单的低频函数,进一步实验与理论的结果支持了这一理论。
Jun, 2019