May, 2023

神经不完全分解:学习共轭梯度法的预处理器

TL;DR本文提出了一种基于自监管训练的图神经网络的数据驱动方法,用于加速科学计算和优化中遇到的大规模线性方程组求解,并且通过替换传统的手工制备预处理器,在收敛速度和计算效率方面实现了显著的提速。在我们的方法的核心是一种受稀疏矩阵理论启发的新型消息传递块。 我们评估了我们提出的方法在科学计算中产生的合成和真实问题上,结果表明 NeuralIF 在各种指标上都实现了竞争性的性能。