一种面向拓扑感知的图削减框架用于连续图学习
本文提出一种基于持续学习的流式 GNN 模型,通过信息传播和数据重放与模型正则化相结合,实现了对新模式和既有模式的同时维护,解决了历史知识被新知识覆盖的灾难性遗忘问题。在多个实验数据集上的节点分类结果表明,该模型能有效地更新模型参数并达到与重新训练相当的性能。
Sep, 2020
本文提出了一种使用图粗化来实现可扩展 GNN 训练的不同方法,详细介绍了图粗化操作的影响和选择方法,并表明图粗化也可看作一种正则化手段。实证结果表明,简单地应用成熟的粗化方法,可以将节点数降低到原来的十分之一而不会导致分类精度的明显下降。
Jun, 2021
本论文提出了一种结构学习策略和参数学习策略相结合的图像持续学习方法,并采用强化学习驱动结构学习策略,Dark Experience 回放的概念来应对灾难性遗忘问题。在图持续学习基准问题中得到了验证,并在两个设置中都表现出比最近发布的作品更好的性能。
Sep, 2022
本文提出通过增加可学习的随机图来维护和重放以前样本的小型陈情表记忆,来解决非静态分布中可用数据的持续学习问题的方法。在多个基准数据集上的实证结果表明,该模型持续胜过最近提出的基线方法,用于无任务的持续学习。
Jul, 2020
连续图学习研究了从无限的图数据流中学习的问题,将历史知识整合并推广到未来的任务。在当前只有当前的图数据可用。本文提出了一种关系感知自适应模型,并说明了图边缘后面的潜在关系可以被归因为不变因素。通过实验证明,该模型在 CitationNet、OGBN-arxiv 和 TWITCH 数据集上相对于现有方法分别提高了 2.2%、6.9% 和 6.6% 的准确度。
Aug, 2023
连续图学习(CGL)旨在用以流式传入的图数据不断更新图模型。本论文提出了一种名为 “Condense and Train (CaT)” 的框架来解决 CGL 中存在的数据不平衡和历史分布近似问题,通过对新来的图进行精简并将其存入 “Condensed Graph Memory” 中,最终通过 “Training in Memory” 方案来直接更新模型。在四个基准数据集上进行的广泛实验成功证明了所提出的 CaT 框架在效果和效率上的优越性。
Sep, 2023
提出了一种名为 CTAug 的新的统一框架,将图的同质子图概念整合进不同的图对比学习机制中,以提高图的表示学习性能。实验证明,CTAug 在图表示学习方面具有领先的性能,特别是对于度较高的图。
Jan, 2024
我们提出了一种针对图学习中的灾难性遗忘问题的方法,在数据从一个图分布过渡到另一个图分布时,通过维持图的局部和全局结构一致性的排练机制来保持对过去任务的知识,并在实际图数据集中与各种持续学习基线进行了性能评测,取得了平均性能和任务遗忘方面的显著改进。
Aug, 2023
提出了一种名为 CoCoGRL 的新方法来解决图形神经网络在图形分类,无监督学习,域适应等领域中需要大量标记成本的问题,此方法使用图形结构在多个视图上进行对比学习。
Jun, 2023