使用单一生成流网络进行图形结构与参数的联合贝叶斯推断
本研究提出了一种称为 DAG-GFlowNet 的方法,使用 Generative Flow Networks 代替 MCMC 来近似推断 Bayesian 网络结构的后验分布。实验结果表明,DAG-GFlowNet 能够提供准确的 DAG 后验近似,并且相对于 MCMC 或变分推断等方法具有优势。
Feb, 2022
本文提出了一个针对动态系统的基于 Bayesian 原理的因果关系发现框架,采用生成流网络架构来学习循环图的贝叶斯后验概率,该框架通过时间建立自然的因果关系,并通过实验表明其与同类算法相比,能够更好的表征同时具有循环性和因果性的问题。
Feb, 2023
生成流网络(GFlowNets)是一种有前景的概率抽样框架,目前出现了一种新的家族。然而,现有的 GFlowNets 由于边缘流的直接参数化或依赖于可能难以扩展到大型操作空间的反向策略,往往导致数据效率较低。本文介绍了一种称为 Bifurcated GFlowNets(BN)的新方法,该方法采用分岔结构设计,将流程分解成状态流程和基于边缘的流程分配的独立表示。此分解使得 BN 能够更有效地从数据中学习,并更好地处理大规模问题,同时保持收敛保证。通过在标准评估基准上进行了大量实验,我们证明 BN 相对于强基准模型显著提高了学习效率和效果。
Jun, 2024
本文研究高斯过程网络 (GPNs) 的贝叶斯结构学习问题,提出基于蒙特卡罗和马尔可夫链蒙特卡罗方法的网络结构后验分布抽样算法,并在模拟实验中证明该方法在恢复网络图形结构和提供准确后验分布方面优于现有算法。
Jun, 2023
该论文介绍了贝叶斯流网络(BFNs),这是一种新的生成模型,通过贝叶斯推理修改一组独立分布的参数,然后将其作为输入传递给神经网络,输出第二个相互依赖的分布。BFNs 在连续数据、离散化数据和离散数据等方面有效,并在图像建模和字符级语言建模任务中实现了有竞争力的对数似然值。
Aug, 2023
这篇文章研究了两种概率算法(层次)变分推断(VI)和生成流网络(GFlowNets)之间的关系。作者发现,在某些情况下,VI 算法等价于 GFlowNets 的特殊情况,但 GFlowNets 比 VI 更适宜于强化学习和多模态目标分布的捕捉。
Oct, 2022
生成流网络(GFlowNets,GFNs)是一种生成式框架,用于学习离散空间上的非归一化概率质量函数。我们通过实证验证了 GFlowNets 的一些泛化机制假设,发现它们学习逼近的函数具有隐含的结构,有利于泛化。同时,我们还发现 GFlowNets 对离线和离策略训练非常敏感,但是 GFlowNets 隐含学习到的奖励对训练分布的变化具有鲁棒性。
Feb, 2024
本文提出了一种基于能量的生成流网络 (EB-GFN) 概率建模算法,该算法通过随机构造数据策略来建模生成过程,并将昂贵的 MCMC 探索在从 GFlowNet 中采样的固定数量的操作中分摊开来。我们展示了 GFlowNet 如何近似执行大块 Gibbs 采样以在多个模式之间混合。我们提出了一个框架,共同训练 GFlowNet 与能量函数,使 GFlowNet 学习从能量分布中采样,而能量则通过从 GFlowNet 中获得负样本的近似 MLE 目标进行学习。我们展示了 EB-GFN 在各种概率建模任务中的有效性。
Feb, 2022