D-VAE:一种用于有向无环图的变分自编码器
本文提出可变图自编码器(VGAE)框架,用于处理基于变分自编码器(VAE)的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络(GCN)编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
本文提出一种基于变分自编码器的方法,通过直接输出预先定义大小的概率性的全连接图来解决学习图嵌入任务中的线性化困境,并在分子生成任务中进行了评估。
Feb, 2018
该论文提出了一个基于图退化概念的图自编码器和图变分自编码器的扩展框架,它可以训练只用稠密节点子集的模型而不是整个图。结合一个简单但有效的传播机制,方法可显著提高可扩展性和训练速度,并在多种现有图自编码器和图变分自编码器的变体上进行了评估和讨论。实验结果表明,该方法在大规模图上具有与其他流行的节点嵌入方法相当的性能。
Feb, 2019
通过引入可变自动编码器的图神经网络模型,本文提出了一个生成模型,这个模型可以自然地处理离散和向量值变量,并通过在合成数据和基准数据集上进行实验,证明了方法的准确性和效果。
Apr, 2019
该论文提出了一种名为Semi-implicit graph variational auto-encoder(SIG-VAE)的模型,采用分层变分框架,建立了一种更灵活的生成图模型,用于更好地捕捉现实世界的图形属性,并能够准确建模给定图形数据的后验概率分布。
Aug, 2019
本研究提出了基于Dirichlet Graph Variational Autoencoder (DGVAE)的图聚类成员资格作为潜在因素的方法,以连接基于VAEs的图生成和平衡图割,提供了一种理解和改进VAEs的图生成内部机制的新方法。
Oct, 2020
本篇论文研究了如何在Transformer architecture中注入图形结构偏差以更好地处理基于有向无环图的数据,包括构思了一个有效的注意机制来捕捉DAG的结构并提出了一种部分顺序的位置编码方法。作者在实验中证明了这个框架能够改善各种基线transformers的效果并使图transformers竞争力更强。
Oct, 2022
我们介绍了“解缠图自编码器”和“解缠变分图自编码器”(DGA和DVGA)的方法,其利用生成模型学习解缠表示,通过设计多通道信息传递层的解缠图卷积网络作为编码器,以及引入在不同潜在因素上的独立性约束,我们的方法在合成和真实数据集上实验表明其优越性。
Feb, 2024
我们开发了一种新颖的卷积结构,专门用于从有向无环图 (DAGs) 的数据中学习。通过DAGs,我们可以建模变量之间的因果关系,但它们的幂零邻接矩阵给开发DAG信号处理和机器学习工具带来了独特挑战。为了解决这个限制,我们利用了近期的进展,提供了DAG上信号的因果转变和卷积的备选定义。我们开发了一种新颖的卷积图神经网络,集成了可学习的DAG滤波器,以考虑图拓扑引起的部分排序,从而为学习DAG支持数据的有效表示提供了有价值的归纳偏见。我们讨论了所提出的DAG卷积网络(DCN)的显著优势和潜在限制,并使用合成数据在两个学习任务中评估其性能:网络扩散估计和源识别。DCN相对于几个基线表现出有利的比较,展示了它的潜力。
May, 2024