高效可扩展的图生成通过迭代局部扩展
本文提出了一种名为 EDGE 的新型扩散生成图模型,通过在每个时间步骤随机删除边并最终获得空图的离散扩散过程,鼓励图结构的稀疏性,使其更有效率地生成包含上千节点的大型图,并明确将图中节点度数建模,与基线模型相比,生成的图像质量更高,具有更相似的图统计特征。
May, 2023
本文提出了去中心化的 “local2global” 图表示学习方法,首先将输入的图划分为重叠的子图(或 “补丁”,patches),并分别对每个 “补丁” 训练本地表示。然后通过组同步,利用 “补丁” 重叠处的信息来估计最佳对齐的刚性运动集,将局部表示组合成全局一致的表示。相对于现有工作,local2global 的一个关键区别是无需在分布式训练期间进行昂贵的参数同步,可以独立地训练各个 “补丁”。这使得 local2global 可以扩展到大规模工业应用程序,在这些应用中,输入图甚至可能无法适合内存,并以分布方式存储。目前中等规模数据集(高达 7K 个节点和 200K 个边缘)的初步结果是令人鼓舞的,local2global 的图重建性能与全局训练嵌入相当。对大规模数据的 local2global 进行全面评估以及在节点分类和链接预测等下游任务中的应用尚在进行中。
Jul, 2021
提出了一种新的图生成网络,以获得具有层级结构的图,并通过模块化方法在层级结构的不同级别生成社区,根据多项式分布对层级图中的边进行建模并成功地捕获了局部和全局性质。
May, 2023
本文提出了对 EDGE 模型的改进,包括引入了一个特定度数的噪声计划,优化了每个时间步骤的活跃节点数量,显著减少了内存消耗,并提出了一个改进的采样方案,通过微调生成过程来更好地控制合成网络和真实网络之间的相似度,实验结果表明,这些改进不仅提高了生成图的效率,还增强了其准确性,为图生成任务提供了强大且可扩展的解决方案。
Oct, 2023
本研究提出了一种统一的生成图卷积网络,通过从现有图数据构建生成图序列的采样,在生成模型框架中自适应地学习所有节点的节点表示,同时使用图重构项和自适应 KL 正则化项对变分下限进行优化,解决了无法处理孤立新节点的问题。
Mar, 2019
该研究使用扩展图形传递信息来提出了一种名为 EGP 的图神经网络,以解决全图分类或回归任务中的挑战,同时避免病态行为和过度压缩等问题,为解决 GNN 中的过度压缩问题开辟了一条新途径。
Oct, 2022
我们提出了一种基于子图扩散的新型图生成框架 SGDM,它不仅提高了图扩散模型的可扩展性和准确性,还通过逆过程执行了多种条件生成任务,包括去噪、扩展和样式迁移等。
Nov, 2023
本文介绍了一种基于图神经网络的强大新方法,用于学习生成模型的过程中捕获图的结构和属性。实验证明,相较于不使用图结构表示的基线,我们的模型常常表现更好,是学习任意图的生成模型的第一个最通用的方法,为从矢量和序列式知识表示的限制中走向更具表现力和灵活性的关系型数据结构开辟了新方向。
Mar, 2018
我们提出了一种基于节点和边的联合评分模型的图生成方法,该方法考虑了图的所有组成部分,并结合关注模块将节点和边属性进行组合,通过图扩散过程中的节点、边和邻接信息的相互依赖关系,生成与边相关的真实世界和合成数据集的挑战性基准结果,在交通场景图生成等领域表现出明显的优势。
Feb, 2024