使用玻尔兹曼机学习热力学
本文分析了受限玻尔兹曼机在统计物理上的训练过程,以小的条纹图案为例,计算了在训练的过程中信息熵、自由能和内能的变化以及可见层和隐藏层之间的互相关性增长,并使用蒙特卡洛模拟计算了能量函数的参数变化对受限玻尔兹曼机所做工的分布,并探讨了 Jarzynski 等式和训练前后自由能差的路径平均指数函数之间的关系。
Apr, 2020
本文通过展示随机化化学反应网络可以实现四种 Boltzmann machine 的方式,提供了一种构建利用原生随机性的化学反应网络作为计算资源的路线图。最后我们对构建的模型进行模拟实验,实现对 MNIST 数字的分类和生成。
Jul, 2017
本文提出了一种新的基于量子玻尔兹曼分布的机器学习方法,即量子玻尔兹曼机。通过对量子概率引入边界,可以使该机器学习模型的训练高效进行,同时也探讨了使用 D-Wave 等量子退火处理器进行训练和应用的可能性。
Jan, 2016
本文提出了将人工神经网络用于蒙特卡罗方法的改进,使其在统计物理问题中的混合时间得以加速,具体应用于 Falicov-Kimball 模型,并在其相变点附近展示了接受比率和自相关时间的提高。
Oct, 2016
利用深度学习和统计力学,我们开发了 Boltzmann Generators,它们能够生成代表性的凝聚态物质系统和蛋白质的无偏一次平衡样品。
Dec, 2018
本文综述了针对时间序列扩展的玻尔兹曼机,介绍了后向传递算法通过时间学习参数的实现。此外,为了解决在线学习中 BPTT 的计算复杂度随着时间序列长度的线性增长的问题,介绍了动态玻尔兹曼机(DyBM)及其基于时间本地性的学习规则,该规则与生物神经网络中的时序相关可塑性(STDP)有关,并被实验证实。
Aug, 2017
开发了一种热力学理论用于机器学习系统,与物理热力学系统相似的是,机器学习系统也具有能量和熵的特征。我们引入了温度的概念,并建立了一个基本的热力学框架来处理具有非 Boltzmann 分布的机器学习系统。我们将机器学习系统看作具有不同状态的系统,并将模型训练和更新解释为状态相变的过程。我们将机器学习系统的初始潜在能量描述为模型的损失函数,并遵循最小潜在能量原则。我们推导了系统在相变过程中的温度,突出温度作为系统数据分布和机器学习训练复杂性的重要指标。此外,我们将深度神经网络视为具有全局温度和每层局部温度的复杂热能引擎,并介绍了神经网络的工作效率概念,主要取决于神经激活函数。然后,我们根据工作效率对神经网络进行分类,并将神经网络描述为两种类型的热能引擎。
Apr, 2024
通过凸优化过程将数据集的主要方向整合到低秩 RBM 中,从而通过静态蒙特卡罗过程实现平衡分布的高效采样,成功训练 RBM 来捕捉之前方法失败的高度结构化数据集中的全部多样性,并提出了一种新的采样方法 - 平行轨迹调整,使得能够比之前的 MCMC 方法更快地采样训练模型的平衡分布并更好地估计对数似然。
May, 2024
Boltzmann Generators that are transferable across chemical space are proposed to generate approximate samples of molecular systems, enabling efficient reweighting to the target distribution of unseen systems and enhancing the efficiency of training on single molecular systems.
Jun, 2024