本文研究了半监督图分类问题及其解决方法的一种 KGNN 模型,在该模型中,图神经网络(GNN)结合基于内存的核网络进行分类,通过学习图表示并使用图内核来有效地使用标记的图和未标记的图。实验证明,KGNN 比竞争基线方法表现出更好的性能。
May, 2022
通过使用具有随机初始化的无限宽度深度网络集合的马尔可夫接近学习模型,结合数值评估来合并和统一神经切向核(NTK)和神经网络高斯过程(NNGP)理论,并提供对机器学习中深度神经网络学习过程的全面理解。
Sep, 2023
该论文介绍了一种名为 Unified Neural Kernel (UNK) 的方法,用于描述神经网络的学习动态以及参数初始化。通过渐进学习步骤,UNK 核的行为呈现类似于 Neural Tangent Kernel (NTK),而随着学习步骤接近无穷大,其收敛于 Neural Network Gaussian Process (NNGP)。此外,论文还对 UNK 核的均匀紧密性和学习收敛性进行了理论表征,并通过实验证明了该方法的有效性。
Mar, 2024
本文研究 Bayesian 神经网络,使用 Monte-Carlo NNGP 推断方法得到 NNGP 性能,探讨其在神经架构搜索中的应用,发现 NNGP 性能具有成本低廉、独立于训练度量且可以用于缩小大搜索空间或提高基于训练的性能度量的优点。
Nov, 2020
该研究提出了一种新型的自适应核图神经网络框架(AKGNN),通过设计一种数据驱动的图内核学习机制来解决预定义核对于不同图之间间的泛化问题,同时通过参数化技巧和全局输出函数增强其表达能力,该方法在公认的基准数据集上展示了优异的性能表现。
Dec, 2021
本文介绍了一种新的图卷积核 (GNTKs) 可以更好地表达图的信息,并且在图分类数据集上表现出强大的性能。
May, 2019
本文介绍了如何将图神经网络中的归纳偏置引入高斯过程中,以优化其在图结构数据上的预测表现,并得出了一些有趣的成员和提出了一种适用于大规模数据后验推断的协方差矩阵的近似方法,通过这些基于图的协方差矩阵,与相应的图神经网络相比,具有相似的分类和回归性能以及计算时间上的优势。
Feb, 2023
本文介绍了神经核网络 (NKN) 的概念,它是一种可以逼近自适应统计学家所使用的复合核结构的灵活的内核族。在进行实验验证的过程中,证明了 NKN 具有发现和推断潜在结构的能力,并且可以用于进行时间序列和纹理外推以及贝叶斯优化任务。
Jun, 2018
本研究论文介绍了神经图生成器(NGG),它利用条件化的潜态扩散模型进行图生成,具有模型复杂图形模式的显著能力,并能控制图生成过程。NGG 通过图压缩的变分图自动编码器和在潜向量空间中的扩散过程,以图统计概述向量为指导。实验证明 NGG 在各种图生成任务中的通用性,能捕捉所需的图特性并推广到未见过的图。该研究工作标志着图生成方法的重大转变,为生成具有特定特征的多样化类型的图提供了更实用和高效的解决方案。
本文提出了一种任务无关的预训练方法,使得图神经网络(GNNs)可以学习最先进的图内核函数所引发的表示,并在监督学习阶段对任务进行微调,该技术对采用的 GNNs 体系结构和内核函数是不可知的,并且在预实验结果中表现出了启示性的提高表现
Nov, 2018