- 为图神经网络生成稳健的反事实证人
介绍了一种新的解释结构类别,称为鲁棒反事实证人,用于提供图神经网络的稳健而反事实和事实解释。研究了 GNN 基于节点分类的这类结构,并提供了高效算法来验证和生成鲁棒反事实证人。通过对基准数据集进行实验证实了解释生成过程,并展示了它们的应用。
- 多视图子图神经网络:稀缺标记数据的自监督学习
利用子图构建长距离依赖关系来改善低数据环境下节点分类的性能,并提出了一种名为 Muse 的自监督学习框架,通过联合捕获局部结构和长距离依赖关系,提高了图中节点的表示表达能力。
- 仅使用污染标签的图卷积网络的干净图反向门路攻击
该研究提出了一种对图卷积网络(GCNs)进行干净图后门攻击(CBAG)的方法,在节点分类任务中仅通过污染训练标签而不对训练样本进行任何修改,揭示了 GCNs 的安全漏洞。实验结果表明,我们的干净图后门攻击能够在保持 GCNs 模型正常功能的 - 无需对文本属性图进行训练的图神经网络
采用线性图神经网络(TrainlessGNN)模型构建代表每个类别节点属性子空间的权重矩阵,为 TAG 上的半监督节点分类提供了一种高效的方法,消除了迭代优化过程。广泛的实验证实了我们的无训练模型可以匹配甚至超越传统训练模型,展示了在特定配 - AGHINT:基于 Transformer 的异构信息网络上的属性引导表示学习
我们研究了异构信息网络中节点属性的差异对于异构图神经网络的性能影响,提出了一种新颖的以属性为指导的 Transformer 模型 AGHINT,通过直接整合高阶相似的邻居特征并修改节点之间的信息传递机制来更有效地聚合邻居节点信息,实验结果表 - 双曲异质图注意力网络
提出了利用超几何空间和元路径实例学习异构图的向量表示的超几何异构图注意力网络(HHGAT),在三个真实的异构图数据集上的实验证明 HHGAT 在节点分类和聚类任务中优于现有的异构图嵌入模型。
- VideoSAGE: 利用图表示学习进行视频摘要
提出了一种基于图的表示学习框架用于视频摘要,通过将输入视频转换为图,从而在图上建立稀疏连接,将视频摘要任务转化为二进制节点分类问题,以捕捉视频帧之间的长程相互作用,同时具有更高的计算效率和内存利用率。
- 带有监督对比正则化的公平图神经网络
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
- 生成对比异构图神经网络
通过利用自监督学习,我们提出了一种新颖的生成对比异构图神经网络 (GC-HGNN),并且在结点分类和链接预测任务中显著超越最新的对比和生成基线模型。
- 超越所知:针对开放世界图学习的新颖类发现
本论文提出了一种名为 ORAL 的开放世界图神经网络方法,用于在图中进行节点分类,并解决了图上发现新类别的挑战,通过半监督的原型学习检测类别之间的相关性,利用原型关注网络消除类别间的相关性,从而得到不同类别的区分性表示,通过对齐和组合多个堆 - 开放式半监督学习用于节点分类
OpenIMA 是一个不依赖预训练图编码器的鲁棒性、基于对比学习的方法,用于从头开始训练节点分类模型并通过减小偏差的伪标签来解决开放世界半监督节点分类问题。
- ROG$_{PL}$:基于区域原型学习的健壮开放集图学习
基于原型学习的 ROG$_{PL}$ 统一框架用于解决复杂嘈杂图数据中的鲁棒开放集节点分类问题。该框架包括通过标签传播去噪和通过区域学习开放集原型两个模块,以解决噪声引起的类内差异问题和类间混淆问题。
- BuffGraph: 通过缓冲节点增强类别不平衡的节点分类
解决图结构数据中的类不平衡问题,引入 BuffGraph,并将缓冲节点插入图中以改善少数类的表示,通过丰富实验表明 BuffGraph 在自然环境和不平衡环境下的节点分类中优于现有基线方法。
- 我们能否将软提示应用于图学习任务的 LLM?
通过 GraphPrompter 框架,将 Large Language Models(LLMs)与图形模态对齐,实现了 LLMs 在图相关任务中的重要性和效果。
- 超磁拉普拉斯超图神经网络
我们提出了一种新的超图神经网络方法,其中超图被表示为一个不可逆的马尔可夫链,使用这个马尔可夫链构建了一个复杂的厄米拉普拉斯矩阵 - 磁拉普拉斯矩阵,该矩阵作为我们提出的超图神经网络的输入,并展示了其在节点分类任务上相比基于图缩减的超图神经网 - ICLRNetInfoF 框架:网络可用信息的测量与利用
给定节点属性图和图任务(链接预测或节点分类),我们能否判断图神经网络(GNN)能否表现良好?我们提出 NetInfoF,一个包括 NetInfoF_Probe 和 NetInfoF_Act 的框架,用于测量和利用网络可用信息(NUI)。Ne - HyperBERT: 在文本属性化超图上混合超图感知层与语言模型进行节点分类
开发一种新的架构 HyperBERT,结合了超图的关系结构和预训练 BERT 模型,用于解决节点分类问题,并在 5 个具有挑战性的文本属性超图节点分类基准测试中取得了最新的最佳结果。
- 灵活的无限宽度图卷积网络及表示学习的重要性
神经网络的无限宽度极限通常被认为是具有高斯过程分布的,称为神经网络高斯过程,然而固定的 NNGP 核函数无法进行表示学习,为了了解图分类和节点分类任务中表示学习的必要性,我们开发了一个精确的工具,即图卷积深核机器,发现表示学习对于图分类和异 - 大型语言模型与图神经网络相遇于知识蒸馏
通过使用 LinguGKD 框架,将大型语言模型作为教师模型和图神经网络作为学生模型,通过设计的节点分类提示来调过教师 LLM 的 Hierarchically 学习到的节点特征和学生 GNN 在潜在空间的对齐,并采用层自适应对比学习策略, - 用图神经网络进行超图节点分类
在节点分类的背景下,本文理论上证明了在超图上,大多数 HyperGNN 可以使用带有超图的加权团展开的 GNN 进行近似。通过加权团展开的 GNN,我们提出了一种简单高效的框架 WCE-GNN,用于超图节点分类,并在九个真实超图节点分类基准