Jun, 2024

预训练神经操作器的策略

TL;DR针对偏微分方程(PDE)建模的预训练最近展现出在扩展神经算子跨数据集以提高泛化能力和性能方面的潜力。尽管取得了这些进展,我们对预训练如何影响神经算子的理解仍然有限;研究通常提出了定制的架构和数据集,使得比较和检查不同预训练框架变得困难。为了解决这个问题,我们比较了各种预训练方法,没有优化架构选择,以表征不同模型和数据集上的预训练动态,并理解其扩展性和泛化行为。我们发现,预训练高度依赖于模型和数据集选择,但一般而言,迁移学习或基于物理学的预训练策略效果最佳。此外,使用数据增强可以进一步提高预训练性能。最后,当在稀缺数据环境下进行微调或推广到与预训练分布相似的下游数据时,预训练还具有额外的好处。通过提供有关预训练神经算子用于物理预测的见解,我们希望鼓励未来在 PDEs 的预训练方法开发和评估方面的工作。