- 图适应性与可扩展性学习的核心知识学习框架
本文提出了一种针对图分类的算法,通过吸收来自不同类型任务的观点,旨在增强图分类中的适应性、可扩展性和泛化性,通过学习整个图的核心子图,重点关注与任务相关的最重要特征,从而改善模型性能、增加领域适应性并增强对领域变化的鲁棒性。实验结果表明,与 - MuGSI:用于图分类的多粒度结构信息压缩 GNN
构建了一个新的知识蒸馏框架 MuGSI,该框架可以有效地解决图分类中遇到的挑战,并显著提高性能、效率和鲁棒性。
- 关于激活规则的 GNN 可解释性研究
GNNs 利用节点表示学习构建的强大模型在与图相关的许多机器学习问题中表现出色,但其部署的主要障碍在于社会可接受性和可信度问题,我们提出了通过挖掘隐藏层的激活规则来理解 GNN 对世界的感知,以解决这一问题,并介绍了主观激活模式领域。通过信 - 基于模式驱动的子图结构学习用于图分类
本文探讨了子图结构学习在图分类中的潜力,同时提出了基于图形结构学习的 Motif - 驱动子图结构学习方法 (MOSGSL),通过解决关键子图选择和结构优化的挑战,从而在图分类任务中取得了显著和一致的改进。
- 重新思考图分类中噪声标签的影响:从实用性和隐私角度的观察
基于消息传递机制的图神经网络在图分类任务中取得了先进的结果,然而,在训练数据中存在噪声标签时,它们的泛化性能会下降。本文从数据隐私和模型效用的角度来衡量噪声标签对图分类的影响,发现噪声标签会降低模型的泛化性能,并增强对图数据隐私的成员推理攻 - GEFL:图分类的扩展过滤学习
使用扩展持久性技术将全局拓扑信息融入图分类的监督学习框架中,通过可导的读出函数计算扩展持久性获取全局拓扑信息;使用链剪树数据结构和并行计算降低计算复杂度,使扩展持久性在机器学习中具备可行性。研究结果表明,在特定条件下,扩展持久性在表达能力上 - CiliaGraph:在边缘进行超轻量级和一次性图分类中加强表达的超维计算
CiliaGraph 是一种增强的表达性和超轻量级的 HDC(Hyper-Dimensional Computing)模型,用于图分类,通过引入一种新的节点编码策略,使用节点距离作为边权进行信息聚合,并将编码后的节点属性和结构信息进行拼接来 - 基于图核的子图同构计数方法研究
利用表示学习技术,我们研究了图内同构数量计算问题并探索了图核心技术在此问题中的潜力,通过综合分析,我们提升了图核心算法的效果,并展示了广泛实验的结果。
- 一个子图用于全部:归纳知识图谱补全中有效推理
基于全局和局部锚点表示(GLAR)学习的归纳式知识图补全方法,在开放子图上进行推理,以更高效地评估候选实体,并通过全局和局部锚点学习丰富的独立特征来解决传统方法的问题。实验证明,GLAR 优于现有大多数最先进的方法。
- 通过基于置信度的图稀疏化提高 GNN 预测的可解释性
我们提出了一种使用增强学习进行训练的 GNN 方法,通过移除边和 / 或节点找出最具预测性的子图,同时优化图分类任务的性能,从而在与基线相竞争的性能下,依赖于更稀疏的子图,从而产生更可解释的基于 GNN 的预测结果。
- 用 Gromow-Wasserstein 中心点进行图数据增强
在该论文中,提出了一种新颖的图形增强策略,该策略在非欧几里得空间中操作,通过使用图数学模型对网络序列的生成机制进行建模,提高了图分类模型的性能。此外,使用非欧几里得距离,特别是 Gromow-Wasserstein 距离,可以更好地逼近图形 - AKBR: 图分类的自适应基于核的表示学习
提出了一种新的自适应基于核的表示(AKBR)模型,通过引入特征通道注意机制捕捉原始图形的不同子结构不变量之间的相互依赖关系,从而有效地将更重要的子结构的结构关注率指定的成对图形之间的 R 卷积核计算为数据输入 softmax 层的 AKBR - ICLR图解析网络
本研究提出了一种基于图解析算法的图池化网络(Graph Parsing Network, GPN),通过学习每个个体图的个性化池化结构,提高了在图分类任务中的性能,同时在节点分类任务中保持了竞争力,并能通过相关测试来衡量内存和时间效率。
- 图神经网络在均场区域的泛化误差
该研究提供了一个理论框架,用于评估图神经网络在过度参数化阶段中进行图分类任务的泛化误差,其中参数数量超过数据点数量。我们探索了两种广泛使用的图神经网络类型:图卷积神经网络和消息传递图神经网络。在该研究之前,过度参数化阶段对泛化误差的现有界限 - 属性图模式学习:利用可训练属性的图模式进行预测性图挖掘
通过结合近端梯度下降和图挖掘树搜索,本文提出了一种针对属性图数据的可解释分类算法 LAGRA(Learning Attributed GRAphlets),能够同时学习重要性权重和属性向量,从而获得对于区分不同类别有很大贡献的子图结构和属性 - 灵活的无限宽度图卷积网络及表示学习的重要性
神经网络的无限宽度极限通常被认为是具有高斯过程分布的,称为神经网络高斯过程,然而固定的 NNGP 核函数无法进行表示学习,为了了解图分类和节点分类任务中表示学习的必要性,我们开发了一个精确的工具,即图卷积深核机器,发现表示学习对于图分类和异 - 使用切片瓦瑟卡因魏斯费勒 - 勒曼图内核的高斯过程回归
用监督学习和高斯过程回归为基础,提出了 Sliced Wasserstein Weisfeiler-Lehman(SWWL)图内核来处理具有连续节点属性的大型稀疏图数据集,并成功应用于分子数据集的图分类和计算流体力学、固体力学的图回归任务。
- EMP:有效的多维持久性图表示学习
我们介绍了一种名为 EMP(Effective Multidimensional Persistence)的框架,它通过同时改变多个尺度参数来探索数据,将数据的多维方面表示为矩阵和数组,与各种机器学习模型有效地对齐,从而提供了一种高度表达性 - 张量视图拓扑图神经网络
图分类是一项重要的图结构数据学习任务,我们提出了一种新颖的 Tensor-view 拓扑图神经网络 (TTG-NN),利用持久同调、图卷积和张量运算构建了一种简单而有效的拓扑深度学习方法,能够同时捕捉局部和全局层面上的张量表示和图结构信息。 - 关于图神经网络和特征增强策略在社交网络分类中的能力
本研究对四种图神经网络架构及五种节点人工特征进行分析,应用于分类任务,并比较它们在不同隐藏层维度下的性能。结果表明,高计算能力的 GNN 架构与信息丰富的人工特征对于性能表现起到平衡重要作用。