We introduce a new paradigm for generative modeling built on Continuous
Normalizing Flows (CNFs), allowing us to train CNFs at unprecedented scale.
Specifically, we present the notion of flow matching (FM), a simulation-free
approach for training CNFs based on regressing vector fields
通过建模生成概率路径的向量场,连续归一化流(CNFs)利用神经网络学习参考密度与目标密度之间的概率路径。本文重新利用流匹配(FM)方法,结合马尔可夫采样方法评估 FM 目标和使用学习的概率路径改进蒙特卡洛采样,将该方法用于概率推断。我们提出了一种顺序方法,利用马尔可夫链的样本修正定义 FM 目标的概率路径。我们增加了自适应调节机制以发现目标中的多个模式。在温和的假设下,我们证明了 FM 目标的局部最优收敛性,讨论了收敛速率的改进,并在合成和真实世界示例中说明了我们的方法。