利用自监督神经网络模型从观察到的轨迹数据中恢复相互作用网络并预测个体动力学的研究,应用于耦合粒子和耦合振荡器(Kuramoto)的两个动力系统。
Oct, 2023
该文章使用复杂网络中常用的技术研究了深度置信网络,以期获得从学习过程中得到的计算图的结构和功能特性的一些见解。
Sep, 2018
本文研究了深度神经网络并使用表示群流的概念及信息论技巧,分析了其非线性模型的学习机制和有效模型复杂性及超参数等参数的归纳偏置。
Jun, 2021
利用长尾随机矩阵与非平衡统计力学理论,提出了 DNN 的新型平均场理论,并发现重尾权重使得 DNN 出现了一个拓展的临界区,体现了丰富的跨层传播动力学,进而赋予 DNN 突出的计算优势,这为设计高效神经网络结构提供了理论指导。
Mar, 2022
通过分析深度线性网络中的非线性动态,我们找到了确切的解决方案,从而解释了语义认知中许多不同现象的普遍性,包括概念的分层差异、语义错觉、项目典型性和类别一致性的出现,以及发展过程中归纳投射模式的变化,以及跨物种的神经表示中语义相似性的保持。
Oct, 2018
现代生成式机器学习模型展示出令人惊讶的能力,能够创造出超越其训练数据的逼真产出,如逼真的艺术作品、精确的蛋白结构或对话文本。这些成功表明生成模型学会了有效地参数化和采样任意复杂的分布。本文旨在将经典作品与大规模生成统计学习中的新兴主题联系起来,包括经典吸引子重构、隐空间模型中的潜在表示学习等。还介绍了早期利用符号近似进行比较的努力,与现代努力进行黑盒统计模型的精简和解释相关。新兴的跨学科研究桥接了非线性动力学和学习理论,如用于复杂流体流动的算子理论方法,或者检测生物数据集中打破了详细平衡的情况。我们预计未来的机器学习技术可能会重新审视非线性动力学中的其他经典概念,如信息传输衰减和复杂性 - 熵权衡问题。
Nov, 2023
使用统计力学和潜在博弈理论的概念综合统计动力学的理论框架,我们提出了深度神经网络微观结构的一种新理论。该理论预测深度神经网络所有高度连接层的连接强度具有对数正态分布的普遍微观结构,在理想条件下所有网络的各层具有相同的均值和标准差。这些预测通过实际的大规模深度神经网络数据得到支持,并讨论了如何利用这些结果来减少训练大规模深度神经网络所需的数据、时间和计算资源。
通过对深度线性神经网络的学习动态进行系统分析,我们发现这些网络表现出类似于非线性神经网络的非线性学习现象,包括长时间的平原,然后快速转换到更低误差的解决方案,以及从贪婪的无监督预训练初始条件下的更快收敛等。同时,我们发现在权重的某些特殊初始条件下,非监督预训练可以找到这些初始条件,同时表现出深度独立的学习时间,而随机高斯初始化则做不到。
Dec, 2013
提出了一种实用的集体 - 个体范式,该范式在序列任务上训练一个进化(可扩展)网络,并且通过从集体模型中发现 learngene,重建轻量级个体模型,经过实验研究和理论分析证明,本文的方法在实现 few-shot learning 场景中取得了很好的效果
本论文旨在应用物理学中的对称性、局域性、复合性和多项式对数概率等性质,研究深度神经网络在近似处理特定实际问题时可以使用相对简单的模型,从信息论的角度证明这些理论,并通过层次结构的机制使深层模型比浅层模型更高效。
Aug, 2016