在处理大型工业数据集时,考虑到 GNN 层之间的信息共享会导致大量的消息传递计算,为了解决高方差的问题,可以将 GNN 邻域抽样看作是一个多臂赌博机问题,并设计了一个新的奖励函数,可将一定程度的偏差引入样本采样中,以减少方差并避免不稳定的、可能无界的支出。
Mar, 2021
本研究分析了现有采样方法中存在的方差问题,提出了一种基于梯度信息和嵌入逼近的解耦合方差缩减策略,该方法即使在更小的批量尺寸下也具有更快的收敛速度和更好的泛化效果。
Jun, 2020
本研究提出了一种自适应逐层采样方法和跨越较远节点的消息传递方法,以解决图形卷积网络在大规模图中的可扩展性问题,并通过实验验证了其有效性和更快的收敛速度。
Sep, 2018
本文提出了一种通信高效的邻居采样方法,用于分布式训练图卷积网络,并在节点分类基准测试中证明了该方法显著降低了通信开销,损失很少的准确性。
Jan, 2021
本文提出一种名为 HE-SGNN 的 GNN 模型,它使用两级嵌套的估计器来减少采样方差,并且使用不同的估计器来应对不同的采样方法。实验结果表明,该模型的效果和效率都很高。
Nov, 2022
本研究提出了一种 “深 GNN,浅采样器” 设计规则,通过利用深层次的 GNN 在一个浅层、局部的子图内传递信息,避免了在全局范围内过度平滑和邻域爆炸的问题,从而提高了 GNN 的准确性和效率。通过采用各种子图采样算法和神经架构扩展,研究人员在最大的公共图形数据集上取得了最先进的准确性,同时大幅减少了硬件成本。
Dec, 2020
我们提出了一个统一的自适应连接采样框架,该框架可以泛化现有的用于训练 GNN 的随机正则化方法,并消除深度 GNN 的过度平滑和过拟合趋势,并允许在 GNN 图分析任务中具有不确定性的学习。将自适应连接采样与 GNN 模型参数以全局和局部方式联合训练,证明了使用自适应连接采样自适应性地学习给定图形训练数据的采样率是提高 GNN 性能的关键。
本文提出针对当前图表示学习中的问题,通过将节点采样策略的优化进行对抗式强化学习,以及引入一种新的分层注意力方案,来提高图卷积网络(Graph Transformer)的性能,实验结果显示了新方法的优越性。
Oct, 2022
本文主要研究了图卷积神经网络(GCNs)中的公平性问题,以及如何训练公平且准确的 GCNs。研究着重分析了图结构偏差、节点属性偏差和模型参数对 GCNs 中的人口平等性的影响,提出了一个名为 FairSample 的框架来共同解决这些偏差,其中采用了注入边缘和使用增强学习的可学习邻居采样策略来改善图结构和保证模型的公平性和质量,同时还采用了正则化目标来优化公平性。
Jan, 2024
通过使用采样算法进行神经网络训练,我们引入了一种方差控制的自适应采样(VCAS)方法,该方法可以在数据和权重梯度计算过程中使用细粒度的分层重要性采样和杠杆得分采样,以加快训练过程并降低计算量。通过在多个任务中进行评估,我们发现 VCAS 可以在保持准确性的同时,减少最高达 73.87% 的 BP 计算量和 49.58% 的整个训练过程计算量。
Feb, 2024