图神经网络中的动态邻居聚合:Just Jump
从粗略标记的数据中发现细粒度类别是一项实用且具有挑战性的任务,本文提出了一种自我监督的框架 ——Denoised Neighborhood Aggregation (DNA),它能够将数据的语义结构编码到嵌入空间中,通过聚合邻居信息来学习紧凑的聚类表示,并能够捕捉到数据之间的语义相似性和形成紧凑的细粒度聚类。
Oct, 2023
该论文探究在图上实现深度学习表示学习的过程,提出了一种新型架构 - jumping knowledge networks(JK 网络),使每个节点可以利用不同的邻居范围以获得更好的结构感知表示,实现了最先进性能。同时,将 JK 框架与 Graph Convolutional Networks、GraphSAGE 和 Graph Attention Networks 等模型相结合,进一步提高了这些模型的性能。
Jun, 2018
欺诈检测在发现欺诈者通过欺骗其他用户,例如发布虚假评论或进行异常交易的行为上有着重要作用。我们采用图神经网络和动态关系注意力聚合机制来解决这个问题,并在真实基准数据集上展示了我们的方法 DRAG 优于其他最先进的欺诈检测方法。
Oct, 2023
本文提出了一种基于长短距离注意力模型的图神经网络框架,用于解决标注有限以及捕捉图中长距离关系的问题,并应用于 PU 学习与节点分类任务中,实验结果证明了算法的有效性。
Mar, 2021
图神经网络已成为从图结构数据中有效挖掘和学习的强大工具,但大多数研究侧重于静态图,忽视了真实世界网络的动态特性,该论文提供了对基本概念、关键技术和最新动态图神经网络模型的全面综述。
Apr, 2024
该研究介绍了一种 Logic Attention Network 聚合方式,能够有效处理实际应用中知识图谱不断出现新实体的问题,并在两个知识图谱补全任务中展现出更好的性能。
Nov, 2018
本文提出了一种能够处理动态图并学习到同时捕捉结构特征和时间演化模式的节点表示的神经网络结构,称为 Dynamic Self-Attention Network (DySAT)。实验结果表明,DySAT 在通信网络和二分等级网络上的表现比多种最新图嵌入算法都有明显提高。
Dec, 2018
本文提出一种新的动态图神经网络模型 DGNN,能够利用图的动态信息,通过捕捉边之间的顺序信息、边之间的时间间隔和信息传播一致性,不断更新节点信息,以适应不断发展变化的图,实验结果证明了该框架的有效性。
Oct, 2018
本文回顾了动态图学习的问题和模型,分析和讨论了各种动态图的监督学习设置,并确定了现有模型的相似之处和不同之处,最后为 DGNN 设计者在面对动态图学习问题时提供了一般指导原则。
Apr, 2023