基于生成流网络的精确奖励导向图模型主动学习
通过强化学习训练一种基于图神经网络 (GNN) 的策略网络,来学习如何高效地标注图中的节点,以减少 GNN 训练的标注成本。该研究还证明了所学习的策略网络在同一领域和不同领域的图之间进行迁移学习的有效性。
Jun, 2020
提出了一种名为 GFlowCausal 的新方法,通过逐步添加直接边将图搜索问题转变为生成问题,从而从观测数据中学习一个有向无环图 (DAG),并使用基于可传递闭包的即插即用模块确保高效的采样,理论分析表明,此模块能够有效地保证无环特性和最终状态与完全连接图之间的一致性,实验结果表明该方法具有显著优势,并且在大规模设置下也表现良好。
Oct, 2022
本研究提出了一种基于 GFlowNets 的 GNN Explainer(GFlowExplainer)方法,通过生成结构而非组合优化的方法来生成子图,加快对 GNN 预测结果的解释,并在综合性实验中证明了其优越性。
Mar, 2023
本文介绍了基于 GFlowNets 算法的生成模型策略,探究了如何在实际训练资源限制下实现更好的样本效率和匹配目标分布,提出了优先回放、相对边流策略参数化和新的引导轨迹平衡目标等方法来提高样本效率,有效解决了一些结构学分配问题。
May, 2023
本文提出了一种基于 GFlowNet 的生成策略来生成对象的方法,该方法将生成过程视为一种流动网络,并将一组轨迹转换为流动,并将流动一致性方程转换为学习目标,以实现训练时的搜索成本,从而提高了性能和多样性。
Jun, 2021
BatchGFN 使用生成流网络来采样比例为批量奖励的数据点集,可构建高度信息化批次用于主动学习,在玩具回归问题中,通过适当的奖励函数以单次前向通过批次中的每个点,取样接近最优效用批次,最大化批次奖励的贪婪近似已不再需要。同时,我们还提出了跨获取步骤的分摊训练的初步结果,这将使其能够扩展到真实世界的任务。
Jun, 2023
GFlowNets 是一种新型的基于流的方法,用于学习通过一系列动作以及与给定正向奖励成比例的概率来生成对象的随机策略。我们在放宽应用范围的前提下对 GFlowNets 的假设进行了改进,特别是解除了关于非环性的限制。为此,我们扩展了可测空间上的 GFlowNets 理论,其中包括了没有循环限制的连续状态空间,并在这个广义上下文中提供了循环的一般化。我们展示了迄今为止使用的损失函数会使流陷入循环,因此我们定义了一族能解决这个问题的损失函数。在图形和连续任务上进行的实验证实了这些原则。
Dec, 2023
生成流网络(GFlowNets,GFNs)是一种生成式框架,用于学习离散空间上的非归一化概率质量函数。我们通过实证验证了 GFlowNets 的一些泛化机制假设,发现它们学习逼近的函数具有隐含的结构,有利于泛化。同时,我们还发现 GFlowNets 对离线和离策略训练非常敏感,但是 GFlowNets 隐含学习到的奖励对训练分布的变化具有鲁棒性。
Feb, 2024
本研究提出了一种称为 DAG-GFlowNet 的方法,使用 Generative Flow Networks 代替 MCMC 来近似推断 Bayesian 网络结构的后验分布。实验结果表明,DAG-GFlowNet 能够提供准确的 DAG 后验近似,并且相对于 MCMC 或变分推断等方法具有优势。
Feb, 2022
Order-Preserving GFlowNets (OP-GFNs) are proposed to sample candidates in proportion to a learned reward function consistent with a given order, eliminating the need for a predefined scalar reward in tasks like multi-objective optimization, and it is proven to concentrate on higher hierarchy candidates, achieving state-of-the-art performance in various tasks.
Sep, 2023