用自适应采样的深度学习方法计算转换概率函数
本文提出了一种基于人工神经网络的方法来研究随机过程之间的转换,并针对转移路径理论的核心对象:符合高维 Fokker-Planck 方程的 committor 函数,提出了数值方案。通过使用这个方法,可以通过随机算法来优化神经网络权重以获得近似值。数值实例表明,可以在高维问题中获得适度的精度。
Feb, 2018
本文介绍了一种基于有限表达式方法(FEX)的 Committor 函数求解器,并在高维基准问题上进行了测试,并发现该方法能够正确识别解决方案的代数结构,从而使 Committor 问题降到低维,并以任何所需精度找到 Committor。
Jun, 2023
本研究使用统计物理中的启发式工具定位相变,并计算了多层神经网络中教师 - 学生场景下的最优学习和泛化误差。我们提出了适用于委员会机器的 AMP 算法版本,允许对大量参数进行多项式时间的最优学习,发现存在一些区间,信息理论上可实现低泛化误差,而 AMP 算法则不能满足这个目标,这表明不存在有效的算法解决这些问题,揭示了高的计算间隔。
Jun, 2018
利用深度学习和统计力学,我们开发了 Boltzmann Generators,它们能够生成代表性的凝聚态物质系统和蛋白质的无偏一次平衡样品。
Dec, 2018
通过对 Target Measure Diffusion map(TMDmap)进行错误估计,我们发现它具有重要的抽样能力,能够对任意密度的数据进行输入,控制一致性误差,并在分析由过阻尼朗之万动力学系统中的罕见事件的过渡路径理论框架中,特别适合作为无网格求解器来解决反向 Kolmogorov 偏微分方程的问题,并且在使用准均匀抽样密度时可以显著减小偏差和方差误差。
Dec, 2023
基于损失函数自适应地调整参数,通过梯度驱动学习计算积分步数的分布,加上随机性以实现平滑的损失函数曲面,将该方法应用于哈密顿蒙特卡罗算法,优化得到与自相关时间相对应的参数。
Sep, 2023
通过 replica formalism,研究了具有可微激活函数和单个线性输出单元的大型分层神经网络的平衡状态。在学习完全匹配复杂度规则的非常多的隐藏单元的学生网络的基础上,计算了定量的冻结自由能,发现系统在训练集的临界大小下从不专业化到专业化的学生配置的一级相变。通过固定的训练集进行随机梯度下降的计算机模拟表明,平衡结果在实际训练过程中的平台状态中得到了定量描述。
Dec, 1998
本研究提出一种基于强化学习的方法,通过在化学反应路径上识别连接反应物和产物状态的重要配置,产生一系列集中于转化路径的配置集合,并将其在神经网络的偏微分方程求解器中有效地应用,从而得到一个受限背向科尔莫戈洛夫方程的近似解,该解编码了反应的机制信息并可用于评估反应速率。
May, 2023