利用人工神经网络和信息理论模型的非模型化特点,实现不需要系统的先验知识,识别重要的物理自由度,并演示自然系统中的重要且普遍存在的学习算法。通过对经典统计物理的问题在一维和二维的应用,演示了 RG 流和提取的 Ising 临界指数。说明了机器学习可以提取抽象的物理概念,并成为理论建模的一个重要组成部分。
Apr, 2017
本文提出将图重写作为研究和比较图神经网络的形式模型,并将 GNN 表示为图重写系统,探讨其架构和算法。作者开发了一个基于 Groove 图重写模型的案例研究,用于模拟消息传递神经网络,并探讨其对动态更新的增量操作。
May, 2023
通过在高斯过程回归的背景下,系统地积掉不可学习的高斯过程核的模式,实现了威尔逊 RG 在实践上的方法,其中数据扮演能量尺度的角色,研究这样的流可以改善我们对深度神经网络中特征学习的理解,识别出这些模型中的潜在普适类。
May, 2024
本文介绍了图神经网络(GNNs)的设计管道,详细讨论了其各个组成部分的变体,对其应用进行了系统分类,并提出了四个开放性问题供未来研究。
Dec, 2018
研究了图神经网络在泛化上的机制,建立了高概率边界和其对泛化差距和梯度的影响,得出结论和实验证据相符的新认识。
本文比较分析了重整化群方法与深度机器学习方法的相似之处,讨论了多尺度纠缠重整化算法在生成式分层贝叶斯网络中的应用,并证明了该算法仅涉及概率的明确评估,消除了采样的需要。
Jan, 2013
本文介绍了一种变分重整化群方法,使用基于归一化流的深度生成模型。该模型通过变量变换从物理空间到潜在空间进行分级,从而生成近似相互独立的潜在变量,同时具有精确和可处理的似然度。本研究展示了该方法在 Ising 模型中的互相独立的集体变量识别和混合蒙特卡罗抽样的实际应用,并讨论了该方法与重整化群的小波分析和信息保存 RG 的联系。
Feb, 2018
该论文提出了一种新的 Graph Neural Network 体系架构(RioGNN),通过使用增强、递归和灵活的邻域选择机制来处理复杂和多样化的边缘,并通过在不同关系之间筛选重要关系来提高效率和解释性。实验结果表明,该方法比其他比较方法更有效,更高效,并具有更好的模型解释性。
Apr, 2021
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
使用 Restricted Boltzmann Machines(RBM)进行深度学习,研究了量子场论和统计物理中的重整化群(RG)与无监督深度学习之间的联系,并通过 1D 和 2D Ising 模型的研究验证了这种联系。
Aug, 2023