- 图变分扩散网络实现鲁棒节点表示学习
我们通过使用图神经网络(GNNs)进行节点表示学习,并结合高斯噪声来保护鲁棒性并减轻过度平滑问题,提出了一种名为 Graph Variational Diffusion Network(GVDN)的新型节点编码器。
- 使用一阶消息传递进行超图节点表示学习
本研究提出了一种新颖的单阶段信息传递范式,用于超图中的全局和局部信息传播模型,在超图节点表示学习的 Transformer 框架 HGraphormer 中引入此范式,通过结合注意力矩阵和超图拉普拉斯矩阵将超图结构信息注入 Transfor - 大规模属性图节点表示学习中的标签解卷积以消除学习偏差
在属性图上的节点表示学习中,我们提出了一种有效的标签正则化技术,即标签解卷积(LD),以解决联合训练中的学习偏差问题,该方法能够显著优于开放图基准数据集上的现有方法。
- PathMLP: 向高阶同质化之路平稳前进
通过设计一种基于相似度的路径采样策略来捕获包含高阶同质性的连续路径以及提出一种名为 PathMLP 的轻量级模型来适应路径聚合,从而在异质性图形中有效地学习节点表示,并证明了其在缓解异质性问题方面的有效性和优越性。
- 通过识别具有桥连特征的重要节点生成基于 Skip-gram 的节点嵌入的事后解释
本文提出了 GRAPH-wGD 方法来解决解释 Skip-gram 基础嵌入的挑战问题,并且通过实验表明该方法在节点分类和链接预测方面具有更高的重要分数和更改类标签预测的能力。
- AAAILoNe Sampler: 通过协调局部邻居采样生成图节点嵌入
LoNe Sampler 提供了一套算法来生成离散化的节点嵌入,通过本地邻域采样,并解决了之前工作的两个缺点,实验结果在基准数据集上验证理论发现并证明了所提出方法的优点。
- ICLR多任务自监督图神经网络实现更强的任务泛化
该研究介绍了一种名为 PARETOGNN 的自监督多任务学习框架,利用多个不同的哲学观点的预文本任务监督自我学习,从而在进行节点表示学习和其他后续任务时产生最佳绩效。
- 用于数学应用问题的异构线图变压器
本文描述一种新的在线学习系统机器学习模型的设计和实现,旨在实现自动的数学题解决器并支持作业批改、难度估算和优先推荐等功能。作者提出了一种新颖的 HLGT 模型,对数学问题进行语义角色标注,构建异质线图并发掘其中的关系,然后使用节点表示学习来 - Heterformer:一种用于异构文本网络节点表征学习的 Transformer 架构
本文提出了一种名为 Heterformer 的异构图神经网络 - 嵌套变形器,能够融合图神经网络和预训练语言模型来进行节点表示学习,实验结果证明其在链接预测、节点分类、节点聚类以及语义检索方面都优于现有的基准模型。
- 透过自适应数据增强实现公平节点表示学习
本研究通过理论分析揭示了 Node representation learning 中源自于 nodal features 和 graph structure 的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于 G - 公平感知节点表示学习
本研究通过自适应特征遮蔽和边缘删除的公平感知图扩充设计,在图对比学习中解决了公平性问题,提出了不同的图上公平性概念,并提供了理论分析来量化证明所提出的特征遮蔽方法可以降低内部偏见。实验结果表明,所提出的扩充方法可以提高平等机会和统计平等的公 - 对抗性有向图嵌入
本文提出基于生成对抗网络的新型有向图嵌入框架 DGGAN,该框架可以联合学习每个节点的源向量和目标向量,并且在多项有向图挖掘任务上优于现有的最先进方法。
- KDDCascade-BGNN:面向大规模双分图的有效自监督表示学习
本研究提出了 Cascade Bipartite Graph Neural Networks—— 一种新颖的自监督节点表示学习方法,该方法可以有效地和高效地在独特的双边图结构中聚合信息,并经过多个数据集的实验验证其高效性和实用性。
- vGraph: 一种联合社区检测和节点表征学习的生成模型
本文提出了一种基于概率生成模型的方法 vGraph,用于协同地学习社区成员和节点表示,旨在发现图的全局和局部结构;实验表明 vGraph 在社区检测和节点表征学习方面的性能优于多个竞争基线。
- ICLR时空深度图最大化
本研究介绍一种基于相互信息最大化的空间时间深度图形信息增强模型,致力于解决结构变化频繁的交通、基因等复杂地理信息系统的表征问题,并证明其可显著提高空间时间自回归预测模型的预测性能。
- 有符号图卷积网络
本文提出了一种基于平衡理论的有向图卷积神经网络模型,用于在带有正负连接的有向图中进行节点表示学习,并证明其在 link sign prediction 等问题上的有效性。
- 基于表示学习的图对齐(REGAL)
REGAL 是一种基于节点表示学习的多网络对齐框架,其中的 xNetMF 是一种优雅和有原则性的节点嵌入公式,可以显着提高速度和准确度,该方法在学习阶段比其他方法快 30 倍,在准确度方面比现有的网络对齐方法高 20% 至 30% ,可扩展