基于最小方差的采样方法用于图神经网络的快速训练
本文提出一种名为 HE-SGNN 的 GNN 模型,它使用两级嵌套的估计器来减少采样方差,并且使用不同的估计器来应对不同的采样方法。实验结果表明,该模型的效果和效率都很高。
Nov, 2022
我们提出了一种用于训练大型输入图的图神经网络(GNNs)的理论框架,通过在小型固定大小的采样子图上进行训练。在渐进理论的基础上,我们证明了在渐进意义下,通过在大型输入图的小样本上训练基于采样的 GNNs 所学习到的参数在 ε- 邻域内与在整个图上训练相同结构的结果相比具有可接受的误差。我们从 ε 的角度导出了关于采样数、图的大小和训练步骤所需的界限函数。我们的结果给出了对于在训练 GNNs 中使用采样的新颖理论理解。同时我们的结果还表明,通过在输入图的小样本上训练 GNNs,从而可以更高效地确定和选择最佳模型、超参数和采样算法。我们在大型的引文图上进行了节点分类任务的实证研究,观察到在局部子图上训练的采样 GNNs 相较于在输入图上训练的 GNNs 达到了可比较的性能,而局部子图的大小仅为原图的 1/12。
Oct, 2023
我们通过使用图神经网络(GNNs)进行节点表示学习,并结合高斯噪声来保护鲁棒性并减轻过度平滑问题,提出了一种名为 Graph Variational Diffusion Network(GVDN)的新型节点编码器。
Dec, 2023
在处理大型工业数据集时,考虑到 GNN 层之间的信息共享会导致大量的消息传递计算,为了解决高方差的问题,可以将 GNN 邻域抽样看作是一个多臂赌博机问题,并设计了一个新的奖励函数,可将一定程度的偏差引入样本采样中,以减少方差并避免不稳定的、可能无界的支出。
Mar, 2021
对图神经网络 (GNN) 的初始化方法进行研究,提出了一种新的初始化方法 Virgo,通过考虑激活函数、隐藏维度、图结构和信息传递等因素,减少了方差不稳定性,提高了模型性能。
Dec, 2023
通过使用采样算法进行神经网络训练,我们引入了一种方差控制的自适应采样(VCAS)方法,该方法可以在数据和权重梯度计算过程中使用细粒度的分层重要性采样和杠杆得分采样,以加快训练过程并降低计算量。通过在多个任务中进行评估,我们发现 VCAS 可以在保持准确性的同时,减少最高达 73.87% 的 BP 计算量和 49.58% 的整个训练过程计算量。
Feb, 2024
本研究提出了一种基于 “尖峰协方差矩阵” 的更加原理性的方差传播框架,可在质量和推理时间之间平滑插值,使得贝叶斯神经网络能够在之前无法触及的性能关键任务领域中使用。
Nov, 2023