May, 2022

偏微分方程算子学习的 Transformer

TL;DR本研究提出了一种基于自注意力机制的模型 Operator Transformer(OFormer)用于数据驱动的偏微分方程算子学习,该模型相对于传统方法不依赖于采样模式,并在标准基准测试中表现优异。