深度神经网络训练响应的简单理论
本文介绍了基于随机矩阵的框架来分析单层线性网络在大维度和规模数据上通过梯度下降训练的学习动态,并对神经网络中的过拟合、早停和训练初始化等问题提供了深入的见解,为进一步研究今天神经网络中出现的更复杂的结构和模型打开了大门。
May, 2018
通过分析网络轨迹和学习过程中的动力学特性,研究了浅层神经网络在简单分类任务中的演化过程,发现不同学习速率下的动力学和轨道稳定性,这一发现与神经网络和动力学系统理论的常见智慧相对照,为动力系统理论、网络理论和机器学习之间的相互交流提供了贡献。
Apr, 2024
这篇文章介绍了关于神经网络的统计理论,从三个角度进行了综述:非参数回归或分类中关于神经网络过度风险的结果,神经网络的训练动力学以及生成模型中的最新理论进展。
Jan, 2024
从动力系统理论的角度考虑神经网络,本文回顾了有关特定模型下以下问题的最新结果:1. 集体动力学的表征;2. 数据分析中脉冲列的统计分析;3. 动力学与网络结构的相互作用;4. 突触可塑性效应。
Jan, 2009
本文研究了深度神经网络在建模具有复杂行为的动态系统方面的有效性,并在选择的公开系统识别数据集上进行了类似的评估。实验证明,深度神经网络是输入输出数据的有效模型估计器。
Oct, 2016
本文回顾了人工神经网络历史并将现代理论神经科学应用于深度学习领域中的实验,使用迭代幅值剪枝来训练稀疏连接的网络,发现仅仅靠权重稀疏并不能提高图像的噪声鲁棒性,最近,开发出利用权重稀疏性,活性稀疏性和主动树突建模来方便持续学习的模型,本文重新验证了这些发现,并将该方法扩展到更具挑战的连续学习任务上,并公开了代码。
Sep, 2022
本文发现随着神经元数量的增加,经过适当的缩放和随机梯度下降动力学,多层神经网络的行为变得独立于神经元数量,发展了一个形式体系来捕捉这种多神经元限制行为,相关实验证实了这种独立性的存在。
Feb, 2019