用变分循环神经网络进行图分类
本文提出了一种结合无监督和有监督学习组成的方法,通过利用random walk方法和Gumbel-Softmax分布将图节点映射到节点序列,然后使用修改后的RNN神经网络单位学习节点表示方法和它们的邻域信息,实验表明该方法优于或与现有算法相当,具有收敛速度快和准确度高的优点。
May, 2018
本文探讨了如何在图形分类中利用图卷积网络(graph convolutional networks)进行节点嵌入(node embeddings)、不可区分形式学习(representation learning)和不可区分形式学习(differentiable graph coarsening),并且没有牺牲稀疏性,为未来基于图形的神经网络研究指出了重要方向。
Nov, 2018
本文提出了一种针对图数据集的预训练策略和自监督方法,通过在节点和整个图级别上预训练表达力强的GNN,以便GNN可以同时学习有用的局部和全局表示,并在多个图分类数据集上进行系统研究,发现我们的策略可避免负面转移并显着提高下游任务的泛化性能,最终达到了在分子性质预测和蛋白质功能预测方面的最先进性能。
May, 2019
本文提出一种新的层级变分GRNN模型,引入额外的潜在随机变量来联合建模动态图的隐藏状态。使用半隐式变分推理开发此新VGRNN架构(SI-VGRNN)并在多个真实世界的动态图数据集上进行实验,结果表明SI-VGRNN和VGRNN在动态链接预测中连续优于现有基线和最先进的方法。
Aug, 2019
本文提出了一种有效构建深度图神经网络的方法。该方法利用动力系统中固定点的思想,通过递归神经网络实现,并采用深度架构组织递归单元。我们证明了即使在没有训练递归连接的情况下,小型的深度图神经网络的性能也能达到或超过当前最先进的图分类任务水平。
Nov, 2019
本文探讨了机器学习中实验的可重复性和可复制性问题,并针对图形学习领域的常见做法、常见问题和常用方法进行概述,提供了五个流行模型的评估方法,并提出结构信息尚未得到充分利用的证据。
Dec, 2019
本文提出一种名为 GRAPHEDM 的综合方法,旨在将有标注数据的网络嵌入、基于图的正则化神经网络和图神经网络三者统一起来,构成一种用于学习图表征的完整分类法。通过将现有的30多种算法整合到这一框架中,本方法具有很高的通用性,从而提供了理解这些方法背后的直觉基础,促进了此领域未来研究的发展。
May, 2020
针对图状数据的学习问题,该研究提出了一种基于递归架构的图神经网络算法,其关键在于使用跳过连接、状态规则化和边缘卷积等三种技术以实现对小型图问题的端到端学习及大规模图问题的推广。实验证明该算法具有较高的推广能力。
Dec, 2022
多图多任务预训练方法(GraphFM)通过将特定领域的特征压缩到一个共同的潜空间,并在不同领域的数据上进行扩展,提高了通用模型的泛化能力。通过对152个不同图数据集进行预训练,并根据跨多个领域的数据构建扩展规律,该方法证明了在真实和合成图上进行多图预训练可以显著减轻当前图训练方法的负担,创建一种能在广泛数据集和任务中竞争的单一通用模型。
Jul, 2024
本研究针对图神经网络在处理分布外(OOD)数据时的泛化能力不足的问题,提出了一种统一不变学习(UIL)框架。该框架通过同时强调结构和语义不变性,来识别更稳健的稳定特征,从而显著提升OOD泛化性能,超越现有主流方法的表现。
Jan, 2025