生成流网络:马尔可夫链角度
本研究提出了一种称为 DAG-GFlowNet 的方法,使用 Generative Flow Networks 代替 MCMC 来近似推断 Bayesian 网络结构的后验分布。实验结果表明,DAG-GFlowNet 能够提供准确的 DAG 后验近似,并且相对于 MCMC 或变分推断等方法具有优势。
Feb, 2022
探讨了深度生成模型和 GFlowNet 框架之间的关系,从 Markovian 规划的角度提供了训练和推理算法统一的方式,并给出了实践验证的优化建议。
Sep, 2022
我们运用蒙特卡罗树搜索算法(MCTS)提升了生成流网络的规划能力,实验证明这种方法提高了生成流网络的训练样本效率和预先训练模型的生成真实性。
Jun, 2024
本文提出了一种基于 GFlowNet 的生成策略来生成对象的方法,该方法将生成过程视为一种流动网络,并将一组轨迹转换为流动,并将流动一致性方程转换为学习目标,以实现训练时的搜索成本,从而提高了性能和多样性。
Jun, 2021
本文提出了利用 GFlowNets 与 Markov 决策过程相结合的方法,通过训练条件 GFlowNets 来采样解空间,并通过各种合成数据和真实数据模拟多种不同的组合问题。通过大量实验证明,GFlowNet 策略可以高效地找到高质量解。
May, 2023
GFlowNets 是一种新型的基于流的方法,用于学习通过一系列动作以及与给定正向奖励成比例的概率来生成对象的随机策略。我们在放宽应用范围的前提下对 GFlowNets 的假设进行了改进,特别是解除了关于非环性的限制。为此,我们扩展了可测空间上的 GFlowNets 理论,其中包括了没有循环限制的连续状态空间,并在这个广义上下文中提供了循环的一般化。我们展示了迄今为止使用的损失函数会使流陷入循环,因此我们定义了一族能解决这个问题的损失函数。在图形和连续任务上进行的实验证实了这些原则。
Dec, 2023
Generative Flow Networks (GFlowNets) are trained to sample from unnormalized probability distributions by learning policies on constructed graphs, with a focus on generalization to unseen parts of the reward function, particularly in terms of length.
Jul, 2024
生成流网络(GFlowNets,GFNs)是一种生成式框架,用于学习离散空间上的非归一化概率质量函数。我们通过实证验证了 GFlowNets 的一些泛化机制假设,发现它们学习逼近的函数具有隐含的结构,有利于泛化。同时,我们还发现 GFlowNets 对离线和离策略训练非常敏感,但是 GFlowNets 隐含学习到的奖励对训练分布的变化具有鲁棒性。
Feb, 2024
本文提出了一种基于能量的生成流网络 (EB-GFN) 概率建模算法,该算法通过随机构造数据策略来建模生成过程,并将昂贵的 MCMC 探索在从 GFlowNet 中采样的固定数量的操作中分摊开来。我们展示了 GFlowNet 如何近似执行大块 Gibbs 采样以在多个模式之间混合。我们提出了一个框架,共同训练 GFlowNet 与能量函数,使 GFlowNet 学习从能量分布中采样,而能量则通过从 GFlowNet 中获得负样本的近似 MLE 目标进行学习。我们展示了 EB-GFN 在各种概率建模任务中的有效性。
Feb, 2022
这篇文章研究了两种概率算法(层次)变分推断(VI)和生成流网络(GFlowNets)之间的关系。作者发现,在某些情况下,VI 算法等价于 GFlowNets 的特殊情况,但 GFlowNets 比 VI 更适宜于强化学习和多模态目标分布的捕捉。
Oct, 2022