本文介绍了一种基于随机游走的方法来规范编码器学习到的表示,可以使图自编码器在节点聚类和链接预测任务中具有更好的性能表现。
Aug, 2019
本文介绍了一种新型自动编码器,用于有向图的建模,该模型使用带参数图卷积网络 (GCN) 层作为编码器和不对称内积解码器,学习了一对可解释的节点潜在表征,并在几个流行的网络数据集中展示了该模型在有向链接预测任务上取得了优异的性能。
Feb, 2022
本文提出了一种名为 GATE 的神经网络结构,用于对图结构数据进行无监督表示学习,结合了自我注意机制,通过编码器 / 解码器层实现图结构输入和节点属性的重构,定量地评估在许多节点分类基准数据集上的表现。
May, 2019
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
本文提出一种替代图卷积网络 (GCN) 编码器的简单线性模型来学习节点的向量表示,并通过实验证明在多个现实世界的图中,如 Cora、Citeseer 和 Pubmed 引文网络上,其表现与基于 GCN 的模型相当,这结果对于评估复杂图自动编码器和变分自动编码器的实际实用价值具有重要意义。
Oct, 2019
在本研究中,我们提出了一种新的基于图的优化传输的 “准瓦砂坊” 损失函数,应用于图神经网络中的节点级预测任务,从而消除节点嵌入和标签之间的非独立同分布性,并且改进了节点级分类和回归任务的性能。
Oct, 2023
本文提出了一种新颖的自监督表示学习方法,通过利用训练数据中的邻域关系编码来保留样本之间的联系并获得具有自主监督的判别性和无监督的表示学习方案。该方法不需要强制注释且适用于不同计算机视觉任务,包括分类、检测和分割等。此外,在对抗性攻击防御和视频异常检测等应用中,该方法的自编码能力也能发挥较好的作用。实验结果表明,该方法在每个特定应用场景下与最先进的方法相比性能更好或至少不逊色。
该论文介绍了一种基于对称图卷积自编码器的方法,通过 Laplacian Sharpening 生成潜在特征来增强网络性能,进一步证明了该模型的稳定性和鲁棒性
本文提出一种图检索机制叫做 GraphRetrieval 通过检索训练图来加强现有的图神经网络模型,利用自注意力的适配器从被检索图中获取有益信息并消除噪声,实现了对现有 GNN 模型效果的显著提升。
Jun, 2022
本文提出了使用改进的信息重构器 ——WGDN,它采用基于图维纳滤波器的增强型解码器,并分析理论证明了图维纳滤波器的出色重构能力。实验结果表明该模型比基于对比学习的模型更有效,同时也证明了具备强大解码能力的预测模型可以获得可比甚至更好的表示能力。