高维狭义神经网络的学习
本文介绍了机器学习的核心概念和工具,并强调了与统计物理之间的自然联系。此外,还介绍了监督和非监督学习中的先进主题,并使用Python Jupyter笔记本演示了这些概念,并以物理学为基础的数据集(Ising模型和超对称质子-质子碰撞的蒙特卡罗模拟) 作为案例,最后探讨了机器学习在进一步理解物理世界方面的潜在用途以及物理学家可能能够做出贡献的机器学习中存在的未解决问题。
Mar, 2018
本文回顾了科学机器学习的最新进展,特别关注物理启发式神经网络在预测物理系统结果和从噪声数据中发现隐藏的物理方面的有效性。我们提出了一个神经网络体系结构,该结构对梯度病理具有更强的鲁棒性,并提出了一个学习率退火算法,通过使用模型训练期间的梯度统计数据来平衡复合损失函数中不同项之间的相互作用。所有伴随本手稿的代码和数据都是公开可用的。
Jan, 2020
本研究在教师-学生模型下,以不同复杂度的任务为研究对象,探究了小批量训练方式对两层神经网络学习的影响。结果发现,小批量大小对学生的泛化性能有显著影响,当小批量大小小于阈值时,学生无法学习;而当小批量大小大于阈值时,学生可以完美学习或非常好地泛化至教师。此外,发现通过改变小批量大小可以引起相变,也带出了有关超参数的重要问题。
May, 2023
神经网络通过高维嘈杂的数据识别低维相关结构,我们对其工作原理的数学理解仍然有限。本文研究了使用基于梯度的算法训练的两层浅层神经网络的训练动态,并讨论了它们在具有低维相关方向的多指标模型中学习相关特征的方式。
May, 2024
学习性能的理论边界是该研究论文的重点,特别关注使用一阶迭代算法弱恢复低维结构所需的最小样本复杂度,在样本数量与协变量维度成正比的高维情况下,通过非线性变换来研究神经网络的特征学习,探讨多指数模型的各种算法、计算相变以及近似传递信息算法的最优性。
May, 2024
本研究填补了机器学习与物理学之间的知识鸿沟,提出了一种基于神经网络理论的全新视角。文章阐述了经典结果和最新研究,包括神经切线核和特征学习,强调了理论物理学家熟悉的场论视角,并揭示了两者之间的潜在联系。
Jul, 2024
本研究解决了高维环境中多索引模型学习的问题,提出了一种通过均场朗动算法训练的双层神经网络新方法。结果表明,当数据具有低维结构时,有效维度$d_{\mathrm{eff}}$可以显著小于环境维度,从而使样本复杂度几乎线性增长,潜在地提高了计算效率。
Aug, 2024