May, 2023

可扩展的 Transformer 用于 PDE 替代模型

TL;DR本文提出了一种基于轴向分解核积分的可学习投影运算符的因式化变压器模型 Factorized Transformer,该模型使用一维域将输入函数分解为多个子函数,用于计算基于实例的内核。我们演示了该模型在 256 x 256 网格上模拟 2D Kolmogorov 流和在 64 x 64 x 64 网格上模拟 3D 烟雾浮力的精度和效率良好。此外,我们发现使用因式化方案时,注意力矩阵的频谱比全 softmax-free 注意力矩阵更紧凑。