FLOWGEN:快速和慢速图生成
我们通过使用梯度的有效估计器来克服了正规化流设计受到解析可逆性需求的约束,并实现了任意保持维度的神经网络作为最大似然训练的生成模型,在分子生成基准测试中取得了出色的结果,同时采用现成的 ResNet 架构在一个反问题基准测试中具有竞争力。
Oct, 2023
探讨了深度生成模型和 GFlowNet 框架之间的关系,从 Markovian 规划的角度提供了训练和推理算法统一的方式,并给出了实践验证的优化建议。
Sep, 2022
GFlowNets 是一种新型的基于流的方法,用于学习通过一系列动作以及与给定正向奖励成比例的概率来生成对象的随机策略。我们在放宽应用范围的前提下对 GFlowNets 的假设进行了改进,特别是解除了关于非环性的限制。为此,我们扩展了可测空间上的 GFlowNets 理论,其中包括了没有循环限制的连续状态空间,并在这个广义上下文中提供了循环的一般化。我们展示了迄今为止使用的损失函数会使流陷入循环,因此我们定义了一族能解决这个问题的损失函数。在图形和连续任务上进行的实验证实了这些原则。
Dec, 2023
提出了一种名为 GFlowCausal 的新方法,通过逐步添加直接边将图搜索问题转变为生成问题,从而从观测数据中学习一个有向无环图 (DAG),并使用基于可传递闭包的即插即用模块确保高效的采样,理论分析表明,此模块能够有效地保证无环特性和最终状态与完全连接图之间的一致性,实验结果表明该方法具有显著优势,并且在大规模设置下也表现良好。
Oct, 2022
该论文介绍了 ServeFlow,一个针对网络流量分析任务的机器学习模型服务解决方案,它通过仔细选择收集数据包的数量和应用于各个流量的模型,实现最小延迟、高服务速率和高准确性之间的平衡。
Feb, 2024
生成流网络(GFlowNets,GFNs)是一种生成式框架,用于学习离散空间上的非归一化概率质量函数。我们通过实证验证了 GFlowNets 的一些泛化机制假设,发现它们学习逼近的函数具有隐含的结构,有利于泛化。同时,我们还发现 GFlowNets 对离线和离策略训练非常敏感,但是 GFlowNets 隐含学习到的奖励对训练分布的变化具有鲁棒性。
Feb, 2024
这篇文章研究了两种概率算法(层次)变分推断(VI)和生成流网络(GFlowNets)之间的关系。作者发现,在某些情况下,VI 算法等价于 GFlowNets 的特殊情况,但 GFlowNets 比 VI 更适宜于强化学习和多模态目标分布的捕捉。
Oct, 2022
本研究提出了一种基于 GFlowNets 的 GNN Explainer(GFlowExplainer)方法,通过生成结构而非组合优化的方法来生成子图,加快对 GNN 预测结果的解释,并在综合性实验中证明了其优越性。
Mar, 2023