图内核:一份综述
本研究总结了过去 15 年中用于核心基础图分类问题的技术,并在一系列基准测试和新数据集上对几种热门核进行了性能比对,发现对于某些数据集,简单的基准测试经过高斯 RBF 核转换后可以得到竞争性的结果;此外,还对现有的图核进行了实证研究,并据此得出了一个从数据角度出发的核分类方案。最后,基于实验结果,本文为核基础图分类提供了从实践角度出发的指南。
Mar, 2019
本文介绍了一种多层图形核的家族,并建立了图卷积神经网络与核方法之间的新联系。利用核特征图形的序列表示图形数据,从而将卷积核网络推广到了图形结构数据,实现了高效的数据表示和训练。在多个图形分类基准测试中,该方法实现了竞争性的性能,同时提供了简单的模型解释。
Mar, 2020
通过扩展线性代数到再生核希尔伯特空间(RKHS)并将其简化为 Sylvester 方程的算法,我们构建了一个统一的框架来研究图形内核,这使得内核计算的时间复杂度从 O(n^6)降至 O(n^3),当图形稀疏时,共轭梯度求解器或固定点迭代带入子立方域。
Jul, 2008
本文综述了图学习领域的现状和发展,主要包括四种现有的学习方法:图信号处理、矩阵分解、随机游走和深度学习。并且介绍了这些方法在文本、图像、科学、知识图谱和组合优化等领域的应用,以及该领域未来的研究方向。
May, 2021
本文提出了一种任务无关的预训练方法,使得图神经网络(GNNs)可以学习最先进的图内核函数所引发的表示,并在监督学习阶段对任务进行微调,该技术对采用的 GNNs 体系结构和内核函数是不可知的,并且在预实验结果中表现出了启示性的提高表现
Nov, 2018
本文介绍了如何将图神经网络中的归纳偏置引入高斯过程中,以优化其在图结构数据上的预测表现,并得出了一些有趣的成员和提出了一种适用于大规模数据后验推断的协方差矩阵的近似方法,通过这些基于图的协方差矩阵,与相应的图神经网络相比,具有相似的分类和回归性能以及计算时间上的优势。
Feb, 2023