利用自回归条件扩散模型进行湍流流动模拟
我们介绍了一种基于概率扩散模型的新型生成框架,用于多样化生成时空湍流。我们的方法在贝叶斯框架内统一了无条件和条件抽样策略,并能适应各种条件情景,包括指定条件与生成的非稳定流动结果之间具有直接可微分链接的情况以及缺乏明确相关性的情况。我们的方法的一个显著特点是基于自回归梯度条件抽样的长时跨度流动序列生成方法,在没有繁琐的重新训练过程的情况下完成。通过一系列数值实验展示了我们框架的多样化湍流生成能力,包括:1)从 URANS 输入合成 LES 模拟的瞬态流动序列;2)从给定的初始条件、规定的湍流统计数据或完全从头开始生成非均匀的、各向异性的壁面湍流;3)从不同输入分辨率的低分辨率数据中实现高速湍流边界层流动的超分辨生成。综合而言,我们的数值实验突显了所提方法的优点和变革潜力,在湍流生成领域取得了重大进展。
Nov, 2023
利用可微流体模拟器和深度学习模型,开发了一种将深度学习模型整合到通用有限元数值方案中以求解 Naiver-Stokes 方程的框架,进而实现对子网尺度闭包的学习,该方法在流过倒角阶梯的多个实现中展示了与传统的大涡模拟相当的准确性,并且在相当于 10 倍速度提升的更细网格上进行测试。
Jul, 2023
该研究介绍了 MoDiff,它是一个基于自回归概率扩散模型的运动序列生成模型,其结合了跨模式 Transformer 编码器和基于 Transformer 的解码器,以生成控制时序依赖性的动作。该模型在运动合成方面表现优异,并通过数据丢弃方法来提高数据表示和运动合成的鲁棒性。
Apr, 2023
本文提出了一种基于 non-autoregressive diffusion model 的时间序列预测模型 TimeDiff,通过引入 future mixup 和 autoregressive initialization 两种新的条件机制,实现了高质量的时间序列预测,并在实验中展现了超过现有模型的表现。
Jun, 2023
本文提出了一种基于物理约束的深度学习模型,通过自动回归密集编码器 - 解码器卷积神经网络建模非线性动力学系统,实现对时间步骤的预测量进行不确定性量化,并利用其在多个非线性瞬态偏微分方程系统上进行测试。
Jun, 2019
本文提出了一种基于扩散的概率端到端模型,用于生成原始语音波形,该模型通过自回归的方式顺序生成重叠帧,可以实现无限语音时长的合成,并保持高保真度和时间连贯性,通过直接处理波形具有优势,可以创建局部声学行为,同时该模型是随机的,生成略有差异的波形变体,实验结果表明相较于其他最先进的神经语音生成系统,所提出的模型具有更高的合成质量。
Oct, 2023
该研究介绍了一种生成扩散模型和物理引导技术,可以生成逼真的流动状态序列,从而实现对湍流流动的时间演变的分析,为生成建模在湍流动力学复杂性研究中提供了宝贵的见解。
Jun, 2024
我们提出了一种基于扩散的图生成模型,通过定义在离散图空间中操作的节点吸收扩散过程,设计了扩散排序网络和去噪网络,从而实现了更好或相当的生成性能,并且具有快速的生成速度。
Jul, 2023
介绍了一种新的生成文本的方法 - 自回归扩散 (AR-Diffusion),它通过引入动态去噪步骤来解决自然语言中的顺序依赖问题,在各种文本生成任务中表现优异。
May, 2023
本文提出了一种自回归、端到端优化的视频扩散模型,受到神经视频压缩技术的启发,可用于生成高质量的视频,并提出了可扩展的连续排名概率得分(CRPS)方法,以评估视频的概率预测能力,该方法在自然和仿真视频的多个数据集上比先前方法的感知质量和概率预测有着显著的提高。
Mar, 2022