FLUID-LLM:具有时空感知的大型语言模型学习计算流体动力学
采用端到端深度学习方法,提高了计算流体动力学中建模二维湍流流动的逼近精度,在直接数值模拟和大涡模拟中实现 8-10 倍于基线求解器的空间精度,具有 40-80 倍的计算速度加速,并保持稳定性,可适用于不同强度和涡量值的流量。
Jan, 2021
提出了一种新的训练方法,用于减少维数和建模三维湍流的时空动力学,利用卷积自编码器和卷积 LSTM 神经网络组合,通过严格的基于物理的统计测试评估了湍流场的质量,并表明这种训练方法在计算资源开销的小部分情况下,生成了具有物理一致性的湍流场。
Feb, 2019
在本文中,我们通过提出评估大型语言模型在动态图中的时空理解能力的 LLM4DyG 基准,第一次系统地评估了 LLMs 在动态图中的时空信息理解能力,并通过广泛的实验分析了不同的数据生成器、数据统计、提示技术和 LLMs 对模型性能的影响。我们提出了一种名为 Disentangled Spatial-Temporal Thoughts (DST2) 的方法,用于增强 LLMs 在动态图中的时空理解能力。我们的主要观察是:1)LLMs 在动态图中具有初步的时空理解能力,2)随着图大小和密度的增加,动态图任务对 LLMs 的难度增加,但对时间跨度和数据生成机制不敏感,3)我们提出的 DST2 提示方法可以帮助提高 LLMs 在动态图中的时空理解能力。此外,数据和代码将在发布时开源。
Oct, 2023
通过 CFD 数据直接学习气流在圆柱上的强迫和自由动力学的方法,基于 Koopman 理论,使用模型预测控制产生了稳定的动态模型,寻找了一个简单易懂的控制策略来抑制圆柱尾流中的涡 shedding。
May, 2018
机器学习在科学计算中已经成为核心技术,能够用于加速直接数值模拟,提高湍流封闭建模,并发展优化的降阶模型,在计算流体力学等领域有着广泛的应用和潜在影响,但也需要考虑一些潜在限制和问题。
Oct, 2021
预训练的大型语言模型(LLMs)在进行零 - shot 任务(包括时间序列预测)时表现出惊人的效果,本文研究了 LLMs 在从事受物理规律控制的动力系统情景下外推行为的能力,结果显示 LLaMA2 在无需微调或提示工程的情况下能准确预测动力系统时间序列,此外,学习到的物理规律的准确性随输入环境窗口长度的增加而增加,揭示了一种上下文版本的神经缩放定律,并提出了一种灵活高效的算法,可直接从 LLMs 中提取多位数的概率密度函数。
Feb, 2024
大型语言模型在时间序列预测方面具有明显的优势和限制,尤其在具备明确模式和趋势的数据上,LLMs 表现出色,但在缺乏周期性的数据集上面临挑战。研究发现,引入外部知识和采用自然语言改写有利于提升 LLMs 在时间序列预测中的预测性能。
Feb, 2024
利用可微流体模拟器和深度学习模型,开发了一种将深度学习模型整合到通用有限元数值方案中以求解 Naiver-Stokes 方程的框架,进而实现对子网尺度闭包的学习,该方法在流过倒角阶梯的多个实现中展示了与传统的大涡模拟相当的准确性,并且在相当于 10 倍速度提升的更细网格上进行测试。
Jul, 2023
提出 DeepCFD 模型,基于卷积神经网络,有效地逼近非均匀稳态层流的问题,从真实数据中学习 Navier-Stokes 方程的完整解,可在低误差率的情况下加速高达三个数量级。
Apr, 2020
该综述论文详细探讨了利用大型语言模型进行时间序列分析的各种方法,包括直接提示、时间序列量化、对齐技术、利用视觉作为桥梁机制以及与其他工具的结合,同时提供了现有的多模态时间序列和文本数据集的综合概述,并分析了该新兴领域的挑战和未来机会。
Feb, 2024