使用图神经网络学习代数多重网格
提出了一种基于数据驱动和机器学习的方法来计算代数多重网格 (AMG) 方法中的非 Galerkin 粗网格算子,同时保持整体的 AMG 收敛性,以解决操作符复杂度增加的问题。
Jul, 2023
提出了一种基于深度学习的算法,利用人工神经网络调整强度阈值参数,减小求解偏微分方程时代数多重网格方法(AMG)的计算开销,实验结果在含有异质的扩散系数和杨氏模量问题的训练集外的测试集上能节省 30% 左右的计算时间。
Apr, 2023
本文提出了一个学习多重网格求解器的框架,使用一个参数化 PDE 族的单一映射来训练一个神经网络,从而构造出适用于不同规模问题的最优细分矩阵,提高了算法的收敛速率。
Feb, 2019
论文介绍了一种名为 LAMG 的算法,它使用高效的多重网格循环算法解决了图拉普拉斯矩阵的线性系统,可适用于适应各种大小和结构的图的求解问题。
Jul, 2011
稀疏矩阵计算是科学计算中无处不在的。近期对科学机器学习的兴趣使得人们自然而然地问及稀疏矩阵计算如何利用神经网络。然而,多层感知机(MLP)神经网络通常不适用于图形或稀疏矩阵计算。本文旨在为数值线性代数的读者介绍图神经网络(GNNs),并提供具体示例以说明如何使用 GNNs 完成许多常见的线性代数任务。同时,我们专注于使用计算核心如矩阵 - 向量乘积、插值、松弛方法和连接强度等迭代方法。期望通过本文使计算科学家了解如何将 GNNs 用于适应与稀疏矩阵相关的计算任务,并希望这种理解能够促进经典稀疏线性代数任务的数据驱动扩展。
Oct, 2023
我们提出了一种简便的无矩阵神经网络结构用于多重网格方法。该结构简单到可以在不到五十行的代码中实现,但包含许多不同的多重网格求解器。我们认为,固定的神经网络没有密集层不能实现高效的迭代方法。因此,标准的训练协议不能生成竞争优势的求解器。为了克服这个困难,我们使用参数共享和层序列化。所得到的网络可以在数以千计未知元的线性问题上进行训练,并在百万未知元的问题上保持其效率。从数值线性代数网络的训练角度来看,它对应于找到几何多重网格方法的最佳平滑器。我们在几个二阶椭圆方程上演示了我们的方法。对于测试的线性系统,与基本线性多重网格方法的 Jacobi 平滑器相比,我们得到的误差传播矩阵的谱半径较小,是其 2 到 5 倍。
Feb, 2024
大规模线性系统中使用迭代求解器和预处理器,我们使用小型图神经网络作为预处理器并与传统方法和神经网络预处理进行对比实验证明我们的方法更优。
May, 2024
本文提出了一种基于深度学习的方法(GLAD),通过交替极小化算法及监督学习,实现从数据中恢复稀疏条件独立图的目标,为解决数据驱动方案中矩阵的正定性和稀疏性不易保证及参数量大等问题提供了一种有效的模型思路。
Jun, 2019
使用图神经网络作为通用预处理器,通过适当生成的训练数据更好地近似矩阵的逆,从而在解决病态问题方面表现出吸引人的性能,以及在构建时间和执行时间方面的优势,具有潜力解决来自偏微分方程、经济学、统计学、图形和优化等多个领域的大规模挑战性代数问题。
Jun, 2024